2017 Book ÜbungsbuchZurLinearenAlgebra
2017 Book ÜbungsbuchZurLinearenAlgebra
2017 Book ÜbungsbuchZurLinearenAlgebra
Hannes Stoppel
Birgit Griese
Übungsbuch
zur Linearen
Algebra
Aufgaben und Lösungen
. Auflage
Grundkurs Mathematik
Berater
Martin Aigner,
Peter Gritzmann,
Volker Mehrmann,
Gisbert Wüstholz
Die Reihe „Grundkurs Mathematik“ ist die bekannte Lehrbuchreihe
im handlichen kleinen Taschenbuch-Format passend zu den mathe-
matischen Grundvorlesungen, vorwiegend im ersten Studienjahr.
Die Bücher sind didaktisch gut aufbereitet, kompakt geschrieben
und enthalten viele Beispiele und Übungsaufgaben.
Die Reihe existiert seit 1975 und enthält die klassischen Bestseller
von Otto Forster und Gerd Fischer zur Analysis und Linearen Alge-
bra in aktualisierter Neuauflage.
Hannes Stoppel · Birgit Griese
Übungsbuch zur
Linearen Algebra
Aufgaben und Lösungen
9., erweiterte Auflage
Hannes Stoppel Birgit Griese
Westfälische Wilhelms-Universität Universität Paderborn
Münster, Deutschland Deutschland
Grundkurs Mathematik
ISBN 978-3-658-14521-7 ISBN 978-3-658-14522-4 (eBook)
DOI 10.1007/978-3-658-14522-4
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
http://dnb.d-nb.de abrufbar.
Springer Spektrum
© Springer Fachmedien Wiesbaden 1998, 1999, 2001, 2003, 2005, 2008, 2011,
2015, 2017
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Ver-
wertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf
der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigun-
gen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung
und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw.
in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der
Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-
Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt wer-
den dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben
und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig
und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber über-
nehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige
Fehler oder Äußerungen.
I Aufgaben 1
0 Lineare Gleichungssysteme 3
0.3 Ebenen und Geraden im Standardraum R3 . . . . . . . . . . . . 3
0.4 Das Eliminationsverfahren von G AUSS . . . . . . . . . . . . . . 4
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 5
0.5 Geraden und Quadratische Kurven im R2 . . . . . . . . . . . . 7
1 Grundbegriffe 11
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 11
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Ringe, Körper und Polynome . . . . . . . . . . . . . . . . . . . 18
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Summen von Vektorräumen∗ . . . . . . . . . . . . . . . . . . . 24
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Lineare Abbildungen 26
2.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 26
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ . . . . . . . . . 27
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 28
2.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . 30
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . 31
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 34
2.6 Koordinatentransformationen . . . . . . . . . . . . . . . . . . . 34
2.7 Elementarmatrizen und Matrizenumformungen . . . . . . . . . 35
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 36
3 Determinanten 39
3.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 39
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 41
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 43
VIII
3.3 Minoren∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 45
3.4 Determinante eines Endomorphismus und Orientierung∗ . . . . 46
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 46
4 Eigenwerte 47
4.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 47
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . 48
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . 49
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Trigonalisierung∗ . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.5 Potenzen eines Endomorphismus∗ . . . . . . . . . . . . . . . . 51
4.6 Die Jordansche Normalform∗ . . . . . . . . . . . . . . . . . . . 52
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 54
6 Dualität∗ 72
6.1 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2 Dualität und Skalarprodukte . . . . . . . . . . . . . . . . . . . 72
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 73
6.3 Tensorprodukte∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Multilineare Algebra∗ . . . . . . . . . . . . . . . . . . . . . . . 76
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 79
IX
II Lösungen 83
0 Lineare Gleichungssysteme 85
0.3 Ebenen und Geraden im Standardraum R3 . . . . . . . . . . . . 85
0.4 Das Eliminationsverfahren von G AUSS . . . . . . . . . . . . . . 88
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 91
0.5 Geraden und Quadratische Kurven im R2 . . . . . . . . . . . . 92
1 Grundbegriffe 98
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 98
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 109
1.3 Ringe, Körper und Polynome . . . . . . . . . . . . . . . . . . . 116
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 123
1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 133
1.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . 134
1.6 Summen von Vektorräumen∗ . . . . . . . . . . . . . . . . . . . 141
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 144
2 Lineare Abbildungen 146
2.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 146
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ . . . . . . . . . 149
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 153
2.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 153
2.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . 157
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 161
2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . 162
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 171
2.6 Koordinatentransformationen . . . . . . . . . . . . . . . . . . . 173
2.7 Elementarmatrizen und Matrizenumformungen . . . . . . . . . 176
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 179
3 Determinanten 184
3.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 184
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 188
3.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 191
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 204
3.3 Minoren∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 215
X
Aufgaben
Kapitel 0
Lineare Gleichungssysteme
Die erste Begegnung mit Aufgaben zur Linearen Algebra kann verwirren. Es ist oft
nicht unmittelbar einzusehen, dass Zusammenhänge, die anschaulich klar und ersicht-
lich scheinen, überhaupt bewiesen werden müssen. Hier sollten wir uns ein für alle mal
klar machen, dass eine Skizze oder ein Schaubild kein Beweis im streng mathematischen
Sinne ist. Bisweilen kann eine Skizze eine Beweisidee viel besser deutlich machen als
ein korrekt aufgeschriebener Beweis mit vielen Indizes und Fallunterscheidungen. Diese
Schlampigkeit“ dürfen wir uns aber höchstens leisten, wenn wir die Formalitäten be-
”
herrschen. Deshalb muss ein echter Beweis, um allgemein akzeptiert zu sein, manchmal
sehr formell aussehen. Diese Formalität kann auch helfen, die Gedanken zu ordnen und
den Beweis strukturiert aufzuschreiben.
Wenn wir mit dem eigentlichen Beweis beginnen wollen, müssen wir uns zuvor klar-
gemacht haben, wie er aufgebaut werden soll. Wie sollen wir vorgehen? Ist ein Wi-
derspruchsbeweis (auch Kontraposition genannt) notwendig, oder kann die Behauptung
direkt aus den Voraussetzungen gefolgert werden? Wie negiert man im Falle der Kontra-
position eine Aussage? Wie können die Voraussetzungen und die Behauptung sinnvoll
in eine mathematische Aussage umgesetzt werden? Was genau muss eigentlich gezeigt
werden? Gibt es Vereinfachungen oder müssen Fallunterscheidungen gemacht werden?
All diese Fragen werden wir im Lösungsteil behandeln, wenn sie konkret auftauchen.
2. a) Beweisen Sie, dass eine Teilmenge E des R3 genau dann eine Ebene ist, wenn es
Vektoren u, v, w ∈ R3 gibt, so dass v und w linear unabhängig sind und
E = u + Rv + R w .
{ }
b) Finden Sie für die Ebene E = (x1 , x2 , x3 ) ∈ R3 : 3x1 − 2x2 + x3 = −1 eine Parame-
trisierung.
Ergänzungsaufgaben
Lösen Sie die linearen Gleichungssysteme.
E1.
x +2y −z = −1
3x −4y +5z = 9
−5x +y −7z = −21
E2. ( )
2 −3 15 −137
1 8 −10 203
−2 −16 20 −406
E3.
3a −2b +6c −7d = −177
a +2b −3c +8d = 162
−4a +3b −7c +2d = 111
−6a −b +2c −d = −32
E4. ( )
1 −1 −6 8 2
−3 2 −7 −2 −10
E5. 1 −1 17 −8 1 −3
3 −7 8 −1 −1 14
−2 7 −1 2 3 −8
0 1 2 −7 2 −7
E6.
1 1 −2 3 −1 8
−2 −1 0 2 2 −8
1 3 −1 0 3 17
0 −1 4 −1 −2 4
3 2 −1 −1 0 18
E7. ( )
1 −3 2 −3
−2 t −1 13
−3 1 −3 8
E8. ( )
1 2 −3 3
−1 6 −5 21
−3 2 1 3t
E9. −1 2 0 4 0
3 7 −8 9 0
−2 −3 5 2 0
2 3 a b 0
6 0 Lineare Gleichungssysteme
E10. ( )
2 0 8 2a
3 −4 b 11
17 −1 0 2
E12. 2 −i 1 + i 3 5 + 2i
−1 2 − i 3 i 4 − 2i
7 8+i 2i 9 16 + 20i
3i 1 + i 10 + i 2 11 − 2i
E13. ( )
i 3 2 + i −7 − i 0
9 4 − i 5i 8 0
E14. 1 1 + i −4 5i −21i
i −1 + i −4i −5 21
8 −2i −1 1 − i 7 + 9i
2i 0 3 −i −2 + 11i
E15. ( )
8 2 i −1 10 + 4i
1 −3 2 0 5−i
−4 12i −7 1 + i −33 − 10i
0.5 Geraden und Quadratische Kurven im R2 7
Ergänzungsaufgaben
Die Visualisierung von Objekten und Zusammenhängen ist der Schlüssel zum Verständ-
nis. Dies kann man gerade auch für Geraden und quadratische Kurven üben. Aus diesem
Grund haben wir einen entsprechenden Abschnitt ergänzt, der eine Einführung in diese
Kurven enthält sowie einen weiteren Blick auf Geraden im Raum wirft. Ferner handelt es
sich bei Kreisen, Ellipsen und Hyperbeln um Quadriken, die in den Ergänzungsaufgaben
E12 bis E14 in Abschnitt 5.4 betrachtet werden.
Geraden
E1.
a) Erklären Sie, warum durch 2x − 3y + 24 = 0 eine Gerade gegeben ist.
b) Notieren Sie eine vektorielle Schreibweise auf dieser Geraden.
c) Bestimmen Sie die Schnittpunkte der Geraden aus Teil a) mit den Achsen des Koor-
dinatensystems.
Kreise
E2. Der Kreis vom Radius r um den Punkt t(x0 , y0 ) sind gegeben durch
(x − x0 )2 + (y − y0 )2 = r2 . ~
a) Bestimmen Sie den Mittelpunkt und den Radius des Kreises zur Gleichung
x2 − 4x + y2 + 6y = 12 . ~~
b) Notieren Sie eine mögliche Parametrisierung des Kreises aus Teil a).
Ellipsen
2
x2
E3. Eine Ellipse ist gegeben durch a2
+ by2 = 1 mit a, b ∈ R r {0}.
a) Bestimmen Sie die Schnittpunkte der Ellipse mit den Achsen des Koordinatensys-
tems für die Fälle a = 1 und b = 2.
b) Geben Sie eine Parametrisierung der Ellipse an.
E4. Gegeben sei eine Ellipse. Zwei Punkte F1 (−e, 0) und F2 (e, 0) heißen Brennpunkte
der Ellipse, wenn e2 = a2 − b2 gilt. Den Abstand e der Brennpunkte vom Ursprung nennt
man lineare Exzentrizität der Ellipse. Ferner bezeichnet man die numerische Exzentri-
zität (in Zukunft einfach Exzentrizität) durch ε = ae .
Jeder Punkt M(x, y) der Ellipse besitzt einen Abstand r1 vom Punkt F1 und einen
Abstand r2 von F2 , vgl. Abbildung 0.1.
8 0 Lineare Gleichungssysteme
M(x, y)
r1
r2
−e e x
Bild 0.1: Abstände eines Punktes der Ellipse von den Brennpunkten
Es stellt sich die Frage, wie sich r1 und r2 bestimmen lassen. Dies wird jetzt in Angriff
genommen. (Eine Bedeutung der Längen r1 und r2 liegt unter Anderem darin, dass sich
mit einem Faden der Länge r1 + r2 eine Ellipse zeichnen lässt.)
a) Zeigen Sie, dass gilt:
r1 = a + ε · x , (0.1)
r2 = a − ε · x . (0.2)
y
− εa a
ε
d2
d1
M(x, y)
r1
r2
−e e x
Bild 0.2: Abstände eines Punktes von den Direktricen einer Ellipse
0.5 Geraden und Quadratische Kurven im R2 9
Hyperbeln
E5. Gegeben seien die Gleichungen
2
x2
i) 2 − y3 = 1 und
2
x2
ii) 2 − y3 = −1.
a) Bestimmen Sie die Schnittpunkte der Graphen mit den Achsen.
b) Stellen Sie die so beschriebenen Punktmengen graphisch dar.
Hinweis. Wir empfehlen für derartige Aufgaben wolframalpha.com.
r1 M(x, y)
r2
x
−e e
Bild 0.3: Abstände eines Punktes der Hyperbel von den Brennpunkten
2 2
E6. Ähnlich zur Ellipse betrachten wir für allgemeine Hyperbeln ax2 − by2 = 1 die lineare
Exzentrizität e mit e2 = a2 + b2 und die numerische Exzentrizität (im Zukunft einfach
Exzentrizität) ε = ae . Außerdem haben wir die Brennpunkte F1 (−e, 0) und F2 (e, 0).
Wie in Abbildung 0.3 werden zu einem Punkt M(x, y) der Hyperbel die Abstände des
Punktes zu den Brennpunkten durch r1 und r2 bezeichnet.
a) Zeigen Sie, dass
r1 = x · ε + a , (0.3)
r2 = x · ε − a (0.4)
für Punkte M auf der rechten Linse bzw. r1 = −(x · ε + a) und r2 = −(x · ε − a) für
Punkte auf der linken Linse der Hyperbel gilt.
b) Für jeden Punkt auf einer Hyperbel gilt
{
2a für Punkte auf der linken Seite
r1 − r2 = −2a für Punkte auf der rechten Seite
10 0 Lineare Gleichungssysteme
y
− εa a
ε
d1
d2 M(x, y)
r1
r2
x
−a · ε x a·ε
Bild 0.4: Abstände eines Punktes der Hyperbel von den Brennpunkten
c) In Abbildung 0.4 sind Direktrizen (oder Leitlinien) d1 und d2 der Hyperbel einge-
zeichnet. Zeigen Sie, dass für die Abstände des Punktes M(x, y) der Hyperbel zu den
Direktrizen gilt:
r1 r2
= =ε.
d1 d2
d) Zeigen Sie, dass y = ab x und y = − ab x Asymptoten der Hyperbeln sind (vgl. Abbil-
dung 0.5).
y
b
y= a
−a a x
−b
y = − ab
Bild 0.5: Annäherung der Hyperbel an die Asymptoten
Kapitel 1
Grundbegriffe
Wie schon der Titel dieses Kapitels verrät, werden hier grundlegende Begriffe erklärt und
eingeübt. Dabei handelt es sich nur in den Teilen 1.4 bis 1.6 um spezielle Grundlagen
der linearen Algebra. 1.1 bis 1.3 gehören mit ihren zum Teil klassischen Aufgaben (und
Lösungen) zur Grundbildung und könnten daher einigen unserer LeserInnen, die bereits
gewisse Vorkenntnisse haben, bekannt oder sogar geläufig sein. Sollte das nicht der Fall
sein, ist hier eine gute Gelegenheit, bisher Versäumtes nachzuholen bzw. zu vertiefen.
Unsere Lösungen sind in der Regel ausführlich gehalten, so dass sie auch AnfängerInnen
ausreichend Hilfestellung bieten können.
5. Zwei Mengen X und Y heißen gleichmächtig genau dann, wenn es eine bijektive
Abbildung f : X → Y gibt. Eine Menge X heißt abzählbar unendlich, falls X und N
gleichmächtig sind.
a) Zeigen Sie, dass Z und Q abzählbar unendlich sind.
b) Zeigen Sie, dass R nicht abzählbar unendlich ist.
c) Für eine nichtleere Menge M sei Abb (M, {0, 1}) die Menge aller Abbildungen von
M nach {0, 1}. Zeigen Sie, dass M und Abb (M, {0, 1}) nicht gleichmächtig sind.
6. Ein Konferenzhotel für Mathematiker hat genau N Betten. Das Hotel ist bereits voll
belegt, aber die Mathematiker lassen sich nach Belieben innerhalb des Hotels umquar-
tieren. Das Hotel soll aus wirtschaftlichen Gründen stets voll belegt sein, und wenn
möglich, sollen alle neu ankommenden Gäste untergebracht werden. Was macht man in
folgenden Fällen?
a) Ein weiterer Mathematiker trifft ein.
b) Die Insassen eines Kleinbusses mit n Plätzen suchen Unterkunft.
c) Ein Großraumbus mit N Personen kommt an.
d) n Großraumbusse treffen ein.
e) N Großraumbusse fahren vor.
Ergänzungsaufgabe
E1. Es seien M und N endliche Mengen. Zeigen Sie, dass die Menge Abb (M, N) endlich
ist, und bestimmen Sie die Anzahl ihrer Elemente.
1.2 Gruppen
Bevor wir uns mit den Aufgaben zu Gruppen beschäftigen, sollten wir uns nochmals vor
Augen führen, dass man Gruppen multiplikativ oder additiv schreiben kann. (Letzteres
tut man üblicherweise, wenn eine Gruppe kommutativ ist.) Das ist deshalb so wichtig,
weil die Gruppenaxiome unterschiedlich aussehen, je nachdem, wie die Verknüpfung
geschrieben ist. Das neutrale Element einer multiplikativen Gruppe heißt Eins, das einer
additiven Gruppe null. Entsprechend werden die inversen Elemente mit a−1 bzw. mit −a
bezeichnet.
1. Sei G eine Gruppe mit aa = e für alle a ∈ G, wobei e das neutrale Element von G
bezeichnet. Zeigen Sie, dass G abelsch ist.
2. Bestimmen Sie (bis auf Isomorphie) alle Gruppen mit höchstens vier Elementen. Wel-
che davon sind abelsch?
3. Welche der folgenden Abbildungen sind Gruppenhomomorphismen?
a) f1 : Z → Z, z 7→ 2z , b) f2 : Z → Z, z 7→ z + 1 ,
c) f3 : Z → Q∗ , z 7→ z2 + 1 , d) f4 : C∗ → R∗ , z 7→ |z| ,
e) f5 : C → R, z 7→ |z| , f) f6 : Z/pZ → Z/pZ, z 7→ z p .
Dabei ist die Verknüpfung in Z, C und Z/pZ jeweils die Addition, in Q∗ , R∗ und C∗
jeweils die Multiplikation und p eine Primzahl.
1.2 Gruppen 13
4. Sei G eine Gruppe und A ⊂ G. Die von A erzeugte Untergruppe erz(A) ist definiert
durch
erz(A) = {a1 · . . . · an : n ∈ N, ai ∈ A oder a−1
i ∈ A} .
erz(A) ist somit die Menge aller endlichen Produkte von Elementen aus A bzw. deren
Inversen. Zeigen Sie, dass erz(A) die kleinste“ Untergruppe von G ist, die A enthält,
”
d.h.
i) erz(A) ⊂ G ist eine Untergruppe.
ii) Ist U ⊂ G eine Untergruppe mit A ⊂ U, so folgt erz(A) ⊂ U.
Wie sieht erz(A) aus für den Fall, dass A einelementig ist?
5. Für eine natürliche Zahl n > 3 sei d ∈ S(R2 ) die Drehung um den Winkel 2π /n und
s ∈ S(R2 ) die Spiegelung an der x-Achse. Die Diedergruppe Dn ist definiert durch
Dn := erz({s, d}).
a) Wie viele Elemente hat Dn ?
b) Geben Sie eine Gruppentafel von D3 an.
6. Eine Gruppe G heißt zyklisch, falls es ein g ∈ G gibt mit G = erz({g}).
a) Wie sieht die Gruppentafel einer endlichen zyklischen Gruppe aus?
b)∗ Zeigen Sie, dass jede zyklische Gruppe entweder isomorph zu Z oder Z/nZ (n ∈ N
geeignet) ist.
7. Zeigen Sie: Ist G eine abelsche Gruppe und H ⊂ G eine Untergruppe, so ist durch
x ∼ y ⇔ xy−1 ∈ H
eine Äquivalenzrelation auf G erklärt. Sei G/H := G/ ∼ die Menge der Äquivalenz-
klassen, und die zu x ∈ G gehörige Äquivalenzklasse sei mit x bezeichnet. Sind
x, x′ , y, y′ ∈ G mit x ∼ x′ und y ∼ y′ , so ist xy ∼ x′ y′ . Somit kann man auf G/H durch
x · y := xy
eine Verknüpfung erklären.
Zeigen Sie, dass G/H auf diese Weise zu einer abelschen Gruppe wird und für
G = Z, H = nZ genau die in 1.2.7 definierten zyklischen Gruppen Z/nZ entstehen.
8. Man gebe ein Beispiel einer nicht assoziativen Verknüpfung aus der Menge G =
{1, 2, 3}, so dass für alle a ∈ G die Translationen τa und a τ aus 1.2.4 surjektiv sind.
Ergänzungsaufgaben
E1. Es sei nZ = {n · a : a ∈ Z} und Z/nZ = {0̄, 1̄, . . . , n − 1} mit ā = a + mZ wie in
[Fi1], Abschnitt 1.2.7. Außerdem seien m, n ∈ N r {0} mit n|m, d.h. n ist ein Teiler von
m. Zeigen Sie, dass dann gilt:
a) mZ ⊂ nZ ist eine Untergruppe bzgl. der Addition,
b) Die Abbildung
φ : Z/nZ → Z/mZ , a + nZ 7→ mn · a + mZ ,
ist ein injektiver Gruppenhomomorphismus.
Mit Hilfe dieser Abbildung kann Z/nZ auch als Untergruppe von Z/mZ betrachtet
werden.
14 1 Grundbegriffe
E4. Zeigen Sie, dass (G, ·) für G = {e, a, b, c} mit der Verknüpfung
· e a b c
e e a b c
a a b c e
b b c e a
c c e a b
eine Gruppe bildet. Sie heißt Klein’sche Vierergruppe.
E5. Zeigen Sie, dass jede Gruppe mit höchstens vier Elementen abelsch ist.
Drehungen und Spiegelungen
E6. Das in Abbildung 1.1 dargestellte Quadrat kann auf unterschiedliche Weisen auf sich
selbst abgebildet werden. Dann liegen die Ecken an anderen Stellen. (Beispielsweise
Drehung um 90◦ . Dann liegt die Ecke 1 dort, wo vorher 2 lag.) Solche Abbildungen
nennt man Deckabbildungen. Einige dieser Abbildungen sind:
Unter einer Drehung wird jede Ecke auf eine andere abgebildet. Das lässt sich mithilfe
einer Tabelle darstellen, in deren erster Zeile sich die Zahlen vor der Drehung befinden,
wohingegen in der zweiten Zeile die Verteilung[ nach der ]Drehung notiert wird. So lässt
1 2 3 4
sich beispielsweise die Drehung d90 durch 2 3 4 1 beschreiben. Es handelt sich
um Spezialfälle von Permutationen, bei denen die Elemente eines Tupels untereinander
vertauscht werden. Für Genaueres zu Permutationen vgl. [Fi1], Abschnitt 3.2.
a) Notieren Sie die vier Drehungen in der Schreibweise für Permutationen. (Eigentlich
nur noch drei, da eine bereits oben notiert ist.)
b) Zeigen Sie, dass diese Abbildungen mit der Hintereinanderausführung ◦ eine Gruppe
bilden. Untersuchen Sie, ob es sich bei der Menge D4 der Drehungen mit der Hinter-
einanderausführung um eine abelsche Gruppe handelt. Nutzen Sie dafür eine Tabelle
1.2 Gruppen 15
@
3@@
@
@ 2
@
@
@
b @@
@@
@
@
@
@
4 @@1
@
@
c a d
Bild 1.1: Ein Quadrat kann durch Drehungen und Spiegelungen auf sich selbst
abgebildet werden
Weierstraß-Kurven
spielten und spielen in unterschiedlichen Bereichen der Mathematik und der Anwendun-
gen eine Rolle. So waren sie für den Beweis der Fermatschen Vermutung von Bedeutung.
Ferner – und darauf werden wir hier eingehen – finden sie Anwendung in der Codierung
und Kryptographie. Durch die dortige Anwendung zeigt sich etwa seit den 1980er Jahren
eine Verbindung zwischen geometrischen Objekten der Mathematik und der Praxis.
16 1 Grundbegriffe
In der Codierung und der Kryptographie spielen Weierstraß-Kurven eine Rolle. Da-
hinter verbergen sich die Wertepaare (x; y) ∈ R2 , welche die Gleichung
E : y2 = x3 + a · x + b mit a, b ∈ K
eines endlichen Körpers K erfüllen. Durch den hier betrachteten Algorithmus zur Co-
dierung und Decodierung lässt sich eine Gruppenstruktur auf den elliptischen Kurven
definieren.
Für die Codierung brauchbare elliptische Kurven müssen eine weitere Bedingung
erfüllen, die Quadratfreiheit. Dies bedeutet, dass es keine c, d ∈ K geben darf mit
x3 + ax + b = (x + c)2 (x + d) .
Anschaulich bedeutet dies, dass die elliptische Kurve keine Singularität besitzen darf,
d.h. keinen Schnittpunkt der Äste. Ein Beispiel für eine Singularität ist in Abbildung 1.2
zu sehen. In diesem Fall kann ein Problem durch mangelnde Eindeutigkeit auftreten.
Ab jetzt setzen wir voraus, dass char(K) ̸= 2, 3 für die betrachteten Körper K ⊂ Z gilt.
E7. Zeigen Sie, dass für eine Weierstraß-Kurve die folgenden Bedingungen äquivalent
sind:
a) 4a3 + 27b2 ̸= 0,
b) die Quadratfreiheit.
Aus der Schulzeit kennt man den Satz von Vieta für Polynome vom Grad 2:
Es seien p, q ∈ R und x2 + p · x + q ein Polynom. Für Lösungen x1 , x2 der Gleichung
x2 + p · x + q = 0 gilt dann
p = −(x1 + x2 ) und q = x1 · x2 .
Die Formel lässt sich auf Polynome beliebigen Grades in C[x] wie folgt übertragen:
Für ein Polynom
xn + an−1 xn−1 + . . . + a1 x + a0
existieren Nullstellen x1 , . . . , xn ∈ C mit
n
∏(x − xi ) = (x − x1 )(x − x2 ) · . . . · (x − xn ) .
i=1
1.2 Gruppen 17
1. Hat man zwei Punkte P und Q auf einer Kurve, die beide nicht im Unendlichen
liegen und ungleich sind, so dass die Gerade PQ die Kurve in einem weiteren
Punkt S schneidet, wird P ⊕ Q := R := −S definiert.
5. Falls P = Q gilt, wähle als Gerade die Tangente an P. S ist dann die zweite Schnitt-
punkt mit der Kurve. Dann definiert man P ⊕ Q := R = −S.
18 1 Grundbegriffe
6. Für den Fall, dass die Gerade in einem der Fälle 1 bis 5 parallel zur y-Achse
verläuft, wählt man R = O.
E9. Weisen Sie nach, dass durch diese Verknüpfung ⊕ eine Gruppe auf den Weierstraß-
Kurven
E : y2 = x3 + a · x + b mit a, b ∈ Z
definiert wird, die keine Singularität besitzen. Genauer gesagt: Gegeben seien R(xR , yR ),
P(xP , yP ) und Q(xQ , yQ ) mit xi , y j ∈ R und R = P ⊕ Q. Zeigen Sie:
yQ −yP
a) Für den Fall P ̸= Q und xP ̸= xQ gilt für λ = xQ −xP
xR = λ − xP − xQ2
yR = −yP + λ (xP − xR ) ,
3xP2 +a
Im Fall P = Q gilt für λ = 2yP
xR = λ 2 − 2xP ,
yR = −yP + λ (xP − xR ) .
b) Zeigen Sie, dass die Menge der Weierstraß-Kurven mit ⊕ eine abelsche Gruppe bil-
det.
7. Seien f , g ∈ C[t] Polynome mit µ ( f , λ ) 6 µ (g, λ ) für alle λ ∈ C. Zeigen Sie, dass
dann f ein Teiler von g ist. Gilt diese Aussage auch in R[t]?
8. Sei K ein Körper und e: K[t] → Abb (K, K), f 7→ fe, die Abbildung aus
1.3.5, die jedem Polynom f die zugehörige Abbildung fe zuordnet. Zeigen Sie, dass
e surjektiv, aber nicht injektiv ist, falls der Körper K endlich ist.
9. Analog zu 1.3.5 definiert man ein Polynom mit Koeffizienten über einem Körper K in
n Unbestimmten t1 , . . . ,tn als einen formalen Ausdruck der Gestalt
f (t1 , . . . ,tn ) = ∑ ai1 ...in · t1i1 · . . . · tnin ,
06i1 ,...,in 6k
wobei k ∈ N und ai1 ...in ∈ K. K[t1 , . . . ,tn ] bezeichne die Menge all solcher Polynome. Wie
für Polynome in einer Unbestimmten kann auch in K[t1 , . . . ,tn ] eine Addition und eine
Multiplikation erklärt werden. Sind f , g ∈ K[t1 , . . . ,tn ], so erfolgt die Addition von f und
g koeffizientenweise und die Multiplikation wieder durch formales Ausmultiplizieren.
a) Finden Sie Formeln für die Addition und Multiplikation von Polynomen in
K[t1 , . . . ,tn ], und zeigen Sie, dass K[t1 , . . . ,tn ] auf diese Weise zu einem nullteiler-
freien, kommutativen Ring wird.
Ein Polynom h ∈ K[t1 , . . . ,tn ] r {0} heißt homogen (vom Grad d), falls
h= ∑ ai1 ...in · t1i1 · . . . · tnin .
i1 +...+in =d
b) Für ein homogenes Polynom h ∈ K[t1 , . . . ,tn ] vom Grad d gilt:
h(λ t1 , . . . , λ tn ) = λ d · h(t1 , . . . ,tn ) für alle λ ∈ K .
c) Ist K unendlich und f ∈ K[t1 , . . . ,tn ] r {0}, so folgt aus
f (λ t1 , . . . , λ tn ) = λ d · f (t1 , . . . ,tn ) für alle λ ∈ K ,
dass f homogen vom Grad d ist.
d) Ist h1 homogen von Grad d1 und h2 homogen vom Grad d2 , so ist h1 · h2 homogen
vom Grad d1 + d2 .
20 1 Grundbegriffe
10. Sei K ein Körper und K[t] der Polynomring in einer Unbestimmten.
a) Zeigen Sie, dass in der Menge K[t] × (K[t] r {0}) durch
(g, h) ∼ (g′ , h′ ) ⇔ gh′ = g′ h
eine Äquivalenzrelation gegeben ist.
K(t) sei die Menge der Äquivalenzklassen. Die zu (g, h) gehörige Äquivalenzklasse sei
g g g′
mit bezeichnet. Somit ist = ′ ⇔ gh′ = g′ h.
h h h
b) Zeigen Sie, dass in K(t) die Verknüpfungen
g g′ gh′ + hg′ g g′ gg′
+ := , · := ′ ,
h h′ hh′ h h′ hh
wohldefiniert sind (vgl. 1.2.7).
c) Zeigen Sie schließlich, dass K(t) mit diesen Verknüpfungen zu einem Körper wird.
Man nennt K(t) den Körper der rationalen Funktionen.
11. Was folgt aus der Vorzeichenregel von D ESCARTES für das Polynom t n + 1?
12. Man folgere die spezielle Vorzeichenregel aus der Vorzeichenregel von D ESCAR -
TES .
Ergänzungsaufgaben
E1. R sei ein kommutativer Ring mit Einselement. Zeigen Sie:
a) Die Menge R[t] der Polynome mit Koeffizienten aus R ist ein kommutativer Ring mit
Einselement.
b) Ist R nullteilerfrei, so folgt: Für beliebige f , g ∈ R[t] mit deg f = n und deg g = m gilt
deg f · g = n + m.
c) Zeigen Sie, dass die Aussage von Teil b) nicht gilt, falls R nicht nullteilerfrei ist, d.h.
finden Sie einen nicht nullteilerfreien Ring und Polynome f , g ∈ R[t] mit deg f = n,
deg g = m und deg f · g < n + m.
E2. R ̸= {0} sei ein Ring, in dem für alle r ∈ R die Gleichung r2 = r gilt. Zeigen Sie:
a) Es gilt char (R) = 2.
b) R ist kommutativ.
Definition. Ein Ring R heißt Integritätsring, wenn er außer der Null keine Nullteiler
besitzt, d.h. für alle r, s ∈ R mit r · s = 0 gilt r = 0 oder s = 0.
c) Wenn R ein Integritätsring ist, dann ist R der Körper mit zwei Elementen.
Einheitengruppe
E3. (R, +, ·) sei ein Ring. Ein Element a ∈ R heißt Einheit, wenn ein b ∈ R existiert mit
a · b = b · a = 1.
a) Zeigen Sie, dass
R× := {a ∈ R : a ist Einheit}
eine Gruppenstruktur bzgl. der Multiplikation in R bildet. Man bezeichnet (R× , ·) als
Einheitengruppe.
1.4 Vektorräume 21
b) Zeigen Sie, dass für einen kommutativen Ring R genau dann R× = Rr{0} gilt, wenn
R ein Körper ist.
Überlegen Sie sich, welche algebraische Strukturen R besitzt, wenn die Multiplikati-
on nicht kommutativ ist.
E5. Zeigen Sie, dass es keinen Ring mit fünf Elementen geben kann.
1.4 Vektorräume
1. Welche der folgenden Mengen sind Untervektorräume der angegebenen Vektorräu-
me?
{ }
a) (x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 2x3 ⊂ R3 .
{ }
b) (x1 , x2 ) ∈ R2 : x12 + x24 = 0 ⊂ R2 .
{ }
c) (µ + λ , λ 2 ) ∈ R2 : µ , λ ∈ R ⊂ R2 .
d) { f ∈ Abb (R, R) : f (x) = f (−x) für alle x ∈ R} ⊂ Abb (R, R).
{ }
e) (x1 , x2 , x3 ) ∈ R3 : x1 > x2 ⊂ R3 .
f) {A ∈ M(m × n; R) : A ist in Zeilenstufenform } ⊂ M(m × n; R).
2. Seien V und W zwei K-Vektorräume. Zeigen Sie, dass das direkte Produkt V × W
durch die Verknüpfungen
(v, w) + (v′ , w′ ) := (v + v′ , w + w′ ), λ · (v, w) := (λ v, λ w) ,
ebenfalls zu einem K-Vektorraum wird.
3. Ist X eine nichtleere Menge, V ein K-Vektorraum und Abb (X,V ) die Menge aller
Abbildungen von X nach V , so ist auf Abb (X,V ) durch
( f + g)(x) := f (x) + g(x) , (λ · f )(x) := λ f (x) ,
eine Addition und eine skalare Multiplikation erklärt.
Zeigen Sie, dass Abb (X,V ) mit diesen Verknüpfungen zu einem K-Vektorraum wird.
4. Eine Abbildung f : R → R heißt 2π -periodisch, falls f (x) = f (x + 2π ) für alle x ∈ R.
a) Zeigen Sie, dass V = { f ∈ Abb (R, R) : f ist 2π -periodisch} ⊂ Abb (R, R) ein Un-
tervektorraum ist.
b) Zeigen Sie, dass W = span (cos nx, sin mx)n,m∈N ein Untervektorraum von V ist. (Man
nennt W den Vektorraum der trigonometrischen Polynome.)
22 1 Grundbegriffe
5. Seien { }
∞
ℓ1 := (xi )i∈N : ∑ |xi | < ∞ ⊂ Abb (N, R) ,
i=0
{ }
∞
ℓ2 := (xi )i∈N : ∑ |xi |2 < ∞ ⊂ Abb (N, R) ,
i=0
ℓ := {(xi )i∈N : (xi )i∈N konvergiert} ⊂ Abb (N, R) ,
ℓ∞ := {(xi )i∈N : (xi )i∈N beschränkt} ⊂ Abb (N, R) .
Zeigen Sie, dass ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ ⊂ Abb (N, R) eine aufsteigende Kette von Untervek-
torräumen ist.
6. Kann eine abzählbar unendliche Menge M eine R-Vektorraumstruktur besitzen?
7. Gibt es eine C-Vektorraumstruktur auf R, so dass die skalare Multiplikation
C × R → R eingeschränkt auf R × R die übliche Multiplikation reeller Zahlen ist?
8. Sind die folgenden Vektoren linear unabhängig?
√ √
a) 1, 2, 3 im Q-Vektorraum R.
b) (1, 2, 3), (4, 5, 6), (7, 8, 9) im R3 .
( 1 )
c) n+x n∈N
in Abb (R∗+ , R).
d) (cos nx, sin mx)n,m∈Nr{0} in Abb (R, R).
Ergänzungsaufgabe
E1. V sei ein Vektorraum über den Körper K und V1 ,V2 ,V3 seien Untervektorräume von
V . Zeigen Sie:
a) (V1 ∩V3 ) + (V2 ∩V3 ) ⊂ (V1 +V2 ) ∩V3 .
b) Falls V1 ⊂ V3 gilt, so folgt
(V1 ∩V3 ) + (V2 ∩V3 ) = (V1 +V2 ) ∩V3 .
c) Suchen Sie ein Beispiel mit V1 " V3 , V2 " V3 und
(V1 ∩V3 ) + (V2 ∩V3 ) $ (V1 +V2 ) ∩V3 .
1.5 Basis und Dimension 23
3. Für d ∈ N sei
K[t1 , . . . ,tn ](d) := {F ∈ K[t1 , . . . ,tn ] : F ist homogen vom Grad d oder F = 0}
(vgl. Aufgabe 9 zu 1.3). Beweisen Sie, dass K[t1 , . . . ,tn ](d) ⊂ K[t1 , . . . ,tn ] ein Untervek-
torraum ist und bestimmen Sie dimK[t1 , . . . ,tn ](d) .
4. Zeigen Sie, dass C endlich erzeugt über R ist, aber R nicht endlich erzeugt über Q.
5. Ist (vi )i∈I eine Basis des Vektorraumes V und (w j ) j∈J eine Basis des Vektorraumes
W , so ist ((vi , 0))i∈I ∪ ((0, w j )) j∈J eine Basis von V ×W (vgl. Aufgabe 2 zu 1.4). Insbe-
sondere gilt
dimV ×W = dimV + dimW ,
falls dimV , dimW < ∞.
6. Sei V ein reeller Vektorraum und a, b, c, d, e ∈ V . Zeigen Sie, dass die folgenden Vek-
toren linear abhängig sind:
v1 = a + b + c , v2 = 2a + 2b + 2c − d , v3 = a − b − e ,
v4 = 5a + 6b − c + d + e , v5 = a − c + 3e , v6 = a + b + d + e .
7. Für einen endlichdimensionalen Vektorraum V definieren wir
h(V ) := sup {n ∈ N : es gibt eine Kette V0 ⊂ V1 ⊂ . . . ⊂ Vn−1 ⊂ Vn
von Untervektorräumen Vi ⊂ V } .
Zeigen Sie h(V ) = dimV .
8. Sei R = C (R, R) der Ring der stetigen Funktionen und
W := { f ∈ R : es gibt ein ρ ∈ R mit f (x) = 0 für x > ρ } ⊂ R .
Für k ∈ N definieren wir die Funktion
{
0 für alle x > k ,
fk (x) := k − x für x 6 k .
a) W = span R ( fk )k∈N .
b) W ist über R nicht endlich erzeugt (aber R ist über R endlich erzeugt).
c) Ist die Familie ( fk )k∈N linear abhängig über R?
24 1 Grundbegriffe
Ergänzungsaufgabe
E1. a) Zeigen Sie, dass die Teilmengen
{ }
:= t (r, . . . , r) ∈ Rn : r ∈ R ⊂}Rn ,
U1 {
n
U2 := t
(r1 , . . . , rn ) ∈ Rn : ∑ ri = 0 ⊂ Rn ,
i=1
Untervektorräume von Rn sind.
b) Bestimmen Sie dimU1 , dimU2 , dim(U1 ∩U2 ) und dim(U1 +U2 ).
Kapitel 2
Lineare Abbildungen
In diesem Kapitel wird das Fundament für einen wesentlichen Teil der linearen Algebra
gelegt. Der Zusammenhang zwischen linearen Abbildungen und Matrizen wird unter
verschiedenen Gesichtspunkten beleuchtet. Um sich diesen Stoff sicher einzuprägen,
sind viele Übungsaufgaben nötig, in denen oft argumentiert, manchmal jedoch auch nur
gerechnet wird. Damit die Rechenpraxis auf keinen Fall zu kurz kommt, haben wir noch
Aufgaben ergänzt.
4. Zeigen Sie, dass die Menge Aut(V ) der Automorphismen eines Vektorraums V mit
der Komposition von Abbildungen als Verknüpfung eine Gruppe ist.
5. Sei F : V → V ein Endomorphismus des Vektorraums V und v ∈ V , so dass für eine
natürliche Zahl n gilt: F n (v) ̸= 0 und F n+1 (v) = 0 .
Beweisen Sie, dass dann v, F(v), . . . , F n (v) linear unabhängig sind.
6. Ist F : V → W ein Isomorphismus und V = U1 ⊕U2 , so ist W = F(U1 ) ⊕ F(U2 ).
6. Beweisen Sie das Lemma aus 1.5.8 noch einmal, aber benutzen Sie nun, dass die
Projektion π : W → K m−1 linear und injektiv ist.
7. Sei F : V → W linear und U ⊂ W ein Untervektorraum. Zeigen Sie, dass dann
dimF −1 (U) = dim(U ∩ Im F) + dimKer F .
8. Geben Sie einen neuen Beweis von Teil a) der Bemerkung aus 2.2.3 unter Benutzung
der Äquivalenzrelation ∼W in V .
9. Zeigen Sie mit Hilfe der universellen Eigenschaft des Quotientenvektorraumes, dass
für Vektorräume V , W sowie einen Untervektorraum U ⊂ V die lineare Abbildung
{F ∈ Hom (V,W ) : F|U = 0} → Hom (V /U,W ) mit F 7→ F̄
(vgl. Satz 2.2.7) ein Isomorphismus von Vektorräumen ist.
28 2 Lineare Abbildungen
Ergänzungsaufgabe
E1. Berechnen Sie mithilfe eines CAS Akn mit k ∈ N für
0 1 0
..
An = . ··· ···
0 · · · 0 1 ∈ M(n, R).
n ··· ···
1 1
n
Formulieren Sie eine Vermutung für lim An , und beweisen Sie sie.
n→∞
mit rang A = 2 und ein b ∈ R2 gibt, so dass L = {x ∈ R3 : Ax = b}. Was bedeutet das
geometrisch?
3. Für n ∈ N sei Vn = span (1, . . . ,t n ) ⊂ R[t] mit der Basis Bn = (1, . . . ,t n ) und
Dn : Vn → Vn−1 , f 7→ f ′
der Ableitungshomomorphismus.
Bn
a) Bestimmen Sie die Matrix MB n−1
(Dn ).
b) Zeigen Sie, dass es eine lineare Abbildung In : Vn−1 → Vn gibt mit Dn ◦ In = id,
B
und bestimmen Sie MBnn−1 (In ).
4. Sei V = { f ∈ R[t] : deg f 6 3} mit der Basis B = (1,t,t 2 ,t 3 ). Wir betrachten die
linearen Abbildungen
∫1
F : V → R, f 7→ f (t) dt und G : V → R3 , f 7→ ( f (−1), f (0), f (1)) .
−1
a) Es seien K und K ′ die kanonischen Basen von R und R3 . Bestimmen Sie die Ma-
trizen B B
MK (F) und MK ′ (G) .
7. Sei
−2 3 2 3
A = −3 5 0 1
−1 2 −2 −2
und F : R4 → R3 die durch F(x) = Ax definierte lineare Abbildung. Bestimmen Sie
Basen A von R4 und B von R3 mit
1 0 0 0
A
MB (F) = 0 1 0 0 .
0 0 0 0
@ ∗ @ @∗
@ @ ∗ @
@
@ · =
0 0@ 0
@
@
8. Wir wollen eine Methode angeben, um die Inverse einer Matrix auszurechnen:
Sei dazu A ∈ M(n × n; K) invertierbar, d. h. rang A = n. Zeigen Sie: Ist
x1i
i
x = ..
.
xni
die Lösung des Gleichungssystems Ax = ei , so ist
x11 . . . x1n
−1
A = .
.
. . .
.
.
xn1 . . . xnn
Berechnen Sie auf diese Weise die inverse Matrix von
1 1 2 4
1 3 4 −2
A=
6
.
0 1 3
1 3 5 3
9. Für eine differenzierbare Abbildung
f : Rn → Rm , x 7→ ( f1 (x), . . . , fm (x)) ,
ist die Jacobi-Matrix von f im Punkt x definiert durch
( )
∂ fi
Jacx f := (x) .
∂xj
34 2 Lineare Abbildungen
Ist m = 1 und f zweimal stetig partiell differenzierbar, so versteht man unter der Hesse-
Matrix von f im Punkt x die Matrix
( 2 )
∂ f
Hessx f := (x) .
∂ xi ∂ x j
2.6 Koordinatentransformationen
1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A , B und C . Bewei-
sen Sie die Kürzungsregel “
” TCA = TCB · TBA .
2. Im R3 seien die Basen
A = ((1, −1, 2), (2, 3, 7), (2, 3, 6)) und B = ((1, 2, 2), (−1, 3, 3), (−2, 7, 6))
gegeben.
a) Berechnen Sie die Transformationsmatrix TBA .
b) Bestimmen Sie die Koordinaten des Vektors
v = 2 · (1, −1, 2) + 9 · (2, 3, 7) − 8 · (2, 3, 6)
bezüglich der Basis B.
2.7 Elementarmatrizen und Matrizenumformungen 35
3. V sei ein R-Vektorraum mit Basis A = (v1 , . . . , v4 ), W sei ein R-Vektorraum mit Basis
B = (w1 , . . . , w5 ). F : V → W sei die lineare Abbildung, die gegeben ist durch
3 1 −2 2
−2 −2 7 −3
A
MB (F) = 4 0 3 1 .
1 3 12 4
0 4 −17 5
Schließlich seien A ′ = (v′1 , . . . , v′4 ) mit v′1 = v1 + v2 , v′2 = v2 + v3 , v′3 = v3 + v4 ,
v′4 = v4 und B ′ = (w′1 , . . . , w′5 ) mit w′1 = w1 , w′2 = w1 + w2 , w′3 = −w1 + w3 ,
w′4 = w1 + w4 , w′5 = w1 + w5 .
a) Zeigen Sie, dass A ′ eine Basis von V und B ′ eine Basis von W ist.
b) Berechnen Sie MB A ′ (F), M A (F) und M A ′ (F).
B′ B′
c) Bestimmen Sie F −1 (span (w1 , w2 , w3 )).
2. Sind die folgenden Matrizen invertierbar? Wenn ja, dann geben die inverse Matrix an.
0 0 0 1 6 3 4 5
0 0 1 0 1 2 2 1
0 1 0 0 ∈ M(4 × 4; R) , 2 4 3 2 ∈ M(4 × 4; R) ,
1 0 0 0 3 3 4 2
1 2 0 1 2 0
1 1 1 ∈ M(3 × 3; R) , 1 1 1 ∈ M(3 × 3; Z/3Z) .
2 0 1 2 0 1
36 2 Lineare Abbildungen
3. Zeigen Sie:
( )
a b
A= ∈ M(2 × 2; K) ist invertierbar ⇔ ad − bc ̸= 0 .
c d
Berechnen Sie in diesem Fall die Inverse von A.
4. Modifizieren Sie das Rechenverfahren aus 2.7.6 so, dass man statt S die inverse Matrix
S−1 erhält (benutzen Sie dabei die Inversen der Elementarmatrizen aus 2.7.2).
5. Finden Sie für die Gleichungssysteme Ax = b aus 0.3.5 sowie aus Aufgabe 2 in 0.4
e = SA in Zeilenstufenform ist, und berechnen Sie e
jeweils eine Matrix S, so dass A b = Sb.
6. Beweisen Sie:
a) Für A ∈ M(n × n; K) und m ∈ N gilt:
m−1 m−1
En − Am = (En − A)( ∑ Ai ) = ( ∑ Ai )(En − A) .
i=0 i=0
(Dabei sei A0 := En .)
b) Ist A ∈ M(n × n; K) eine Matrix, für die ein m ∈ N existiert mit Am = 0, so ist En − A
invertierbar. Wie sieht die inverse Matrix aus?
Ergänzungsaufgaben
E1. Die folgenden Matrizen sind über R bzw. C invertierbar und bieten daher die Mög-
lichkeit, mehr Routine im Errechnen der inversen
Matrix zu erlangen.
Viel Erfolg dabei!
1 1 1 0
1 2 3 −2 3 1
1 1 0 1
A = 2 3 4 ; B = 1 1 2 ; C =
1 0 1 1
;
1 1 0 5 2 −1
0 1 1 1
1 −2 3 4 5 4 −6 1
7 8 9
−5 6 7 8 −4 8 6 1
D= ; F = 4 5 6 ;
−9 10 11 12
; E =
0 −3 7 7
−1 2 3
13 −14 15 16 9 −3 0 5
1 1 1 2 0 1 1 1 1 1 1 1
1 1 2 1 2 1 2 2 2 4 8 16
G=
1 2 1 1
; H =
3 3 2 3
; I=
3 9 27 81
;
2 1 1 1 4 4 4 3 4 16 64 256
1 5 −9 4 −7
0 1 −6 7 1 1 2 + i −3i
J = 0 0 1 −3 9 ; K = 4i 5 1−i ;
0 0 0 1 8 2 − 3i 2i 5
0 0 0 0 1
2i −3 + i 4 − 2i ( )
2 − i 4 − 7i
L = −9 8 − 3i 4i ; M = ;
10 + 3i 12 − i
1 2 + i 3 − 2i
2.7 Elementarmatrizen und Matrizenumformungen 37
7 + 2i 1 − i 2 + 3i −3 − 3i
1 2 4
0 −2 4 − i 10 − 2i
N= O = 1+i 2+i 3+i .
1 + 7i
;
0 0 4i
1−i 2−i 3−i
0 0 0 1
E2.
a) Zeigen Sie, dass die Multiplikation
( )
a11 · · · a1n m m
(x1 , . . . , xn ) · ... .. :=
. ∑ i1 i ∑ in i
a x , . . . , a x
am1 · · · amn i=1 i=1
wohldefiniert ist.
b) Führen Sie die oben definierte Multiplikation für die Matrizen aus E1 mit den jeweils
geeigneten Vektoren aus der folgenden Liste durch:
(1, 3, 2), (1, i, −i), ( 13 , 12 , 61 ), (1, 2, 3, 4), (i, i2 , i3 , i4 ),
( ) ( )
− 12 , − 31 , − 14 , − 51 , 1 1 2 1 3 1 4 1 5
2,(2) ,(2) ,(2) ,(2) , (1, 2, 3, 5, 7), (1, 0), (0, 1) .
c) Leiten Sie aus der Vektormultiplikation von Teil a) für den Fall m = n eine Matrizen-
multiplikation und damit eine Verknüpfung von linearen Abbildungen her.
Diese Art der Multiplikation von Vektoren und Matrizen spielt auch in der Stochastik
eine Rolle, vgl. [Be]. Es ist zu beachten, dass in diesen Matrizen die Wahrscheinlich-
keiten stehen und ∑nj=1 ai j = 1 ∀i sowie ∑ni=1 xi = 1 gilt.
Polynome
p(t) = ak t k + ak−1t k−1 + . . . + a1t + a0 lassen sich auch als Abbildungen von
End(V ) → End(V ) eines Vektorraums V auffassen. Damit lassen sie sich auch als Ab-
bildungen M(n, K) → M(n, K) betrachten. Die Skalarmultiplikation und die Addition
von Matrizen finden hierbei wie üblich statt, als würde man die Matrizen als Vektoren
2
des Rn auffassen und jedes Element der Matrix mit dem Skalar multiplizieren. Nach
Korollar 2.5.4 in [Fi1] handelt es sich bei M(n × n, K) um einen Ring. Damit definieren
wir die Abbildung
p : M(n × n, K) → M(n × n, K),
A 7→ p(A) = ak · Ak + ak−1 · Ak−1 + . . . + a1 · A + a0 · En .
3. Geben Sie eine unendliche Teilmenge des Rn an, in der jeweils n verschiedene Punkte
linear unabhängig sind.
4. Zeigen Sie noch einmal
det(ai j ) = det((−1)i+ j · ai j ) ,
(vgl. Aufgabe 4 zu 3.1), aber benutzen Sie nun zum Beweis die Formel von L EIBNIZ.
5. In dieser Aufgabe soll der Aufwand zum Berechnen der Determinante mit Hilfe der
Leibniz-Formel bzw. des Gauß-Algorithmus verglichen werden.
a) Bestimmen Sie die Anzahl der Additionen und Multiplikationen, die nötig sind, wenn
man die Determinante von A = (ai j ) ∈ M(n × n; R)
i) mit der Leibniz-Formel,
ii) durch Umformung der Matrix in Zeilenstufenform mit dem Gauß-Algorithmus
und Aufmultiplizieren der Diagonalelemente berechnet.
b) Es stehe ein Computer zur Verfügung, der Addition und Multiplikation in 0.2 Mikro-
sekunden durchführen kann. Schätzen Sie ab, für welche Größe von Matrizen man
mit den Verfahren i) bzw. ii) in einer vorgegebenen Rechenzeit von höchstens 48
Stunden auf diesem Computer Determinanten berechnen kann.
6. Beweisen Sie die Regeln D4 bis D11 aus 3.1.3 mit Hilfe der Leibniz-Formel.
7. Welche der Eigenschaften D4 bis D11 gelten, falls man Determinanten von Matrizen
aus M(n × n; R) für einen Ring R betrachtet (vgl. 3.2.8)?
8. (Fortsetzung von Aufgabe 5 zu 3.1.)
Sei K ein Körper mit char K ̸= 2, n ∈ N r {0} gerade, also n = 2m für ein m ∈ N und
A ∈ M(n × n; K) schiefsymmetrisch. Definiert man
P(x11 , . . . , xnn ) = ∑ sign(σ ) · xσ (1)σ (2) · . . . · xσ (2m−1)σ (2m) ,
wobei über alle σ ∈ Sn mit σ (2i) > σ (2i − 1) für i = 1, . . . , m summiert wird, so gilt
1
det A = ( m! P(a11 , . . . , ann ))2 . Man nennt P ein Pfaffsches Polynom.
42 3 Determinanten
9. Seien v, w zwei verschiedene Punkte des K 2 und L ⊂ K 2 die Gerade durch v und w.
Dann gilt:
1 v1 v2
L = {(x1 , x2 ) ∈ K : det
2 1 w 1 w 2 = 0} .
1 x1 x2
Ergänzungsaufgaben
E1. Bestimmen Sie die Diskriminante D f von f = at 2 + bt + c ∈ R[t] mit a ̸= 0 (vgl.
die Lösung von Aufgabe 6 zu Abschnitt 3.1). Wann ist sie gleich 0? Deuten Sie dies
geometrisch.
Möbius-Transformation
3.3 Minoren∗
1. In dieser Aufgabe geht es um weitere Eigenschaften der komplementären Matrix.
a) Ist die Abbildung M(n × n; K) → M(n × n; K), A 7→ A♯ linear?
b) Zeigen Sie: t (A♯ ) = (t A)♯ , (AB)♯ = B♯ A♯ .
c) det A♯ = (det A)n−1 .
d) (A♯ )♯ = (det A)n−2 · A.
a) Zeigen Sie, dass die Plückerkoordinaten bis auf einen Faktor aus K r {0} nur von
E abhängen: Ist E = span (x, y) = span (x′ , y′ ), so existiert ein λ ∈ K r {0} mit
p(x, y) = λ · p(x′ , y′ ). In diesem Sinne wollen wir auch einfach von den Plücker-
koordinaten p(E) von E reden, diese sind dann bis auf einen Faktor ̸= 0 eindeutig
bestimmt.
b) Zeigen Sie: Sind E1 , E2 ⊂ K n Untervektorräume der Dimension 2, so dass p(E1 ) und
p(E2 ) linear abhängig sind, so folgt E1 = E2 .
c) Ist E = span (x, y) ⊂ K 4 , so erfüllen die Plückerkoordinaten (pi j ) von E die Glei-
chung p12 p34 − p13 p24 + p14 p23 = 0. Ist umgekehrt p = (pi j )16i< j64 ∈ K 6 r 0 gege-
ben mit p12 p34 − p13 p24 + p14 p23 = 0, so existiert ein 2-dimensionaler Untervektor-
raum E = span (x, y) ⊂ K 4 mit p(E) = p.
d) Sind E1 = span (x, y), E2 = span (x′ , y′ ) ⊂ K 4 zweidimensionale Untervektorräume
mit Plückerkoordinaten p(E1 ) = (pi j ), p(E2 ) = (qi j ), so gilt:
x1 y1 x1′ y′1
′ ′
x y2 x2 y2
E1 ∩ E2 ̸= {0} ⇔ det 2
x3 y3 x3′ y′3
=0
x4 y4 x4′ y′4
⇔ p12 q34 − p13 q24 + p14 q23 + p23 q14 − p24 q13 + p34 q12 = 0 .
7. Zeigen Sie, dass det(x) = ∑σ ∈Sn sign(σ ) · x1σ (1) · . . . · xnσ (n) ∈ K[x11 , . . . , xnn ] ein irre-
duzibles Polynom ist, das heißt, dass aus det(x) = P · Q mit Polynomen P und Q stets
P ∈ K oder Q ∈ K folgt.
Ergänzungsaufgaben
E1. Zeigen Sie durch explizite Rechnung, dass für A ∈ M(2 × 2; K)
( )♯
A♯ = A
gilt.
E2. Bestimmen Sie die Determinante von
0 1 ··· 1
. .. ..
1 .. . .
A= . . ∈ M(n × n; K) .
.. .. . .. 1
1 ··· 1 0
46 3 Determinanten
Ergänzungsaufgabe
E1. Zur Übung können die Determinanten der Matrizen berechnet werden, die im Auf-
gabenteil im Anschluss an Abschnit 2.7 angegeben wurden. Dort sollte man die inversen
Matrizen berechnen, deshalb ist klar, dass keine dieser Matrizen die Determinante null
haben kann (vgl. D10 und D11 aus 3.1.3).
Kapitel 4
Eigenwerte
Die Untersuchung von Eigenwerten und Eigenräumen bzw. Haupträumen einer linea-
ren Abbildung ist zentral für die lineare Algebra, weil sie zur Klassifizierung linearer
Abbildungen führt. Dies geschieht durch Zerlegung“ einer linearen Abbildung in die
”
direkte Summe möglichst einfacher linearer Abbildungen, die auf niedrigerdimensiona-
len Räumen operieren. Im Fall eines in Linearfaktoren zerfallenden charakteristischen
Polynoms führt dies auf die Jordansche Normalform eines Endomorphismus, ein wahr-
haft faszinierendes Konzept, dessen Details sich oft nur erschließen, wenn man eine
gewisse Anzahl Aufgaben löst. Wir haben einige ergänzende Aufgaben im Anschluss an
4.6 aufgelistet.
3. Sei I ⊂ R ein offenes Intervall. Durch eine Matrix A ∈ M(n × n; R) ist das homogene
lineare Differentialgleichungssystem
y′ = A · y
bestimmt; nach Aufgabe 11 zu 3.2 hat der zugehörige Lösungsraum
L0 = {φ ∈ D(I; Rn ) : φ ′ = A · φ } ⊂ D(I; Rn )
die Dimension n. Um Lösungen zu erhalten, kann man den Ansatz
φ (t) = eλ t · v
benutzen, wobei λ ∈ R und v ∈ Rn . Zeigen Sie:
a) φ (t) = eλ t · v ist eine Lsung ̸= 0 von y′ = A · y genau dann, wenn v Eigenvektor von
A zum Eigenwert λ ist.
b) Lösungen φ (1) (t) = eλ1t · v1 , . . . , φ (k) (t) = eλk t · vk sind linear unabhängig genau dann,
wenn v1 , . . . , vk linear unabhängig sind.
Insbesondere erhält man mit diesem Ansatz eine Basis des Lösungsraums, falls A diago-
nalisierbar ist.
4. Sei V ein K-Vektorraum und F : V → V linear. Zeigen Sie: Hat F 2 + F den Eigenwert
−1, so hat F 3 den Eigenwert 1.
Bemerkung: Die Matrix P ist ein Beispiel für eine Übergangsmatrix in Verbindung zu
Markov-Ketten. Bei π handelt es sich um eine stationäre Wahrscheinlichkeitsverteilung.
Bei jeder irreduziblen und nicht periodischen Markov-Kette existiert mindestens eine
stationäre Verteilung. Für Details vgl. [Hä], Kapitel 5 oder [S3], S. 94ff.
4.3 Diagonalisierung
1. Beweisen Sie Teil 2) von Satz 4.3.1 mit Hilfe von Theorem 4.3.3.
2. Sind die folgenden Matrizen diagonalisierbar?
1 2 0 4
−5 0 7 2 1 2
0 2 3 1 , −2
0 0 3 0 , 6 2 −6 −2 −6 .
−4 0 6 1 2 5
0 0 0 3
3. Für welche a, b ∈ R ist die Matrix
−3 0 0
2a b a
10 0 2
diagonalisierbar?
4. Wir betrachten das Differentialgleichungssystem mit Anfangswertbedingung
ẏ = A · y, y0 (0) = α , y1 (0) = β (∗)
für die gedämpfte Schwingung (siehe 4.3.5), wobei
( )
0 1
A= .
−ω 2 −2µ
a) Im Fall µ > ω ist A (reell) diagonalisierbar. Bestimmen Sie eine Basis des R2 aus
Eigenvektoren von A und geben Sie eine Basis des Lösungsraums von ẏ = A · y an
(vgl. Aufgabe 3 zu 4.1). Wie sieht die Lösung von (∗) aus?
b) Im Fall µ < ω ist A ∈ M(2 × 2; C) komplex diagonalisierbar. Bestimmen Sie die
Eigenwerte von A und geben Sie eine Basis des C2 aus Eigenvektoren von A an. Ist
50 4 Eigenwerte
4.4 Trigonalisierung∗
1. Zeigen Sie, dass das Polynom t n − 2 ∈ Q[t] fr n > 2 keinen Teiler P ∈ Q[t] mit
1 6 deg P 6 n − 1 besitzt.
2. Trigonalisieren Sie mit dem Verfahren aus 4.4.5 die Matrizen
3 0 −2 −1 −3 −4
−2 0 1 , −1 0 3 .
2 1 0 1 −2 −5
3. Zeigen Sie mit Induktion nach n = dimV : Ist V ein endlichdimensionaler K-Vektorraum
und F : V → V ein nilpotenter Endomorphismus, so existiert eine Basis B von V mit
0 ∗
MB (F) = . .. ,
0 0
und es gilt PF (t) = ±t n .
4. (Fortsetzung von Aufgabe 4 in 4.3.) Zeigen Sie, dass die Matrix
( )
0 1
A=
−ω 2 −2µ
im Fall µ = ω trigonalisierbar ist, und bestimmen Sie eine Matrix S ∈ GL(2; R), so
dass B = SAS−1 obere Dreiecksmatrix ist. Das System ẏ = A · y geht somit durch die
Substitution z = Sy über in ż = B · z, und es reicht, das (einfachere) System ż = B · z zu
lösen. Bestimmen Sie auf diese Weise eine Basis des Lösungsraums von ẏ = A · y und
lösen (∗) in 4.3.5 auch im aperiodischen Grenzfall.
4. Beweisen Sie den Satz von C AYLEY-H AMILTON durch direkte Rechnung für Matri-
zen A ∈ M(2 × 2; K).
52 4 Eigenwerte
5. Beweisen Sie den Satz von C AYLEY-H AMILTON für einen diagonalisierbaren Endo-
morphismus.
6. Geben Sie noch einen anderen Beweis des Satzes von C AYLEY-H AMILTON durch
Induktion von n = dimV mit der folgenden Methode:
Für ein 0 ̸= v ∈ V sei k mit 1 6 k 6 n maximal, so dass
v, F(v), . . . , F k−1 (v)
linear unabhängig sind, und W ⊂ V der von diesen Vektoren aufgespannte Raum.
a) Zeigen Sie, dass F(W ) ⊂ W und berechnen Sie PG (t) für G := F|W (siehe Aufgabe
4 in 4.2).
b) Zeigen Sie PG (G) = 0 ∈ End (W ).
c) Folgern Sie daraus im Fall k < n mit der Bemerkung aus 4.4.1 und der Induktions-
annahme, dass PF (F) = 0.
4. Mit Hilfe des Satzes über die Jordansche Normalform kann man recht einfach hohe
Potenzen von Matrizen berechnen. Zeigen Sie:
a) Ist A ∈ M(n × n; K), S ∈ GL(n; K) und m ∈ N, so gilt (SAS−1 )m = SAm S−1 .
b) Sind A, B ∈ M(n × n; K) mit AB = BA und m ∈ N, so gilt
m ( )
m k m−k
(A + B)m = ∑ AB .
k=0 k
c) Bestimmen Sie für die Matrix
3 4 3
A = −1 0 −1
1 2 3
eine Matrix S ∈ GL(3; R), so dass A = S(D + N)S−1 , wobei D Diagonalmatrix, N nil-
potent und DN = ND ist. Berechnen Sie mit Hilfe von a) und b) (und ohne Computer)
A50 .
5. Betrachten Sie die Verallgemeinerung der Exponentialfunktion für Matrizen; für jede
Matrix A ∈ M(n × n; R) existiert
m
1
exp(A) := lim ∑ Ak .
k=0 k!
m→∞
−5 −5 −2 −22 −18 −33
I = 10 9 3 , J= 18.5 16 25.5 ,
1 1 2 7.5 6 11.5
i 1 0.5 0
i −3i 0
4
0 i 0 0
K= −i 0 , L =
0
0 ,
0 0 i
−1 + i 1
3 − i 1 0 0 0 i
( ) ( )
2−i 0.8 − 0.6i 2.5 −1 + 0.5i
M= , N= .
−2 + i i −1 + 0.5i 1.5 − 2i
Kapitel 5
Euklidische und unitäre Vektorräume
Vektorräume V über den reellen oder komplexen Zahlen sind – zumindest für den Fall
dimV 6 3 – konkret vorstellbar. Daher scheinen viele Aufgaben, gerade zu Beginn des
Kapitels, recht leicht und wenig reizvoll.
Auf der anderen Seite gibt es viele Eigenschaften, die bei euklidischen oder unitären
Vektorräumen nicht ohne weiteres zu erwarten sind. Aus diesem Grund lohnt es sich,
auch an auf den ersten Blick trivial erscheinende Aufgaben oder Probleme einen Gedan-
ken zu verlieren.
4. Zwei Vektoren x, y ∈ Rn heißen orthogonal (in Zeichen x⊥y), wenn ⟨x, y⟩ = 0. Sind
x, y ̸= 0, so gilt offenbar π
x⊥y ⇔ ^(x, y) = .
2
Ist L = v + Rw ⊂ Rn eine Gerade, so heißt s ∈ Rn orthogonal zu L, wenn ⟨s, x − y⟩ = 0
für alle x, y ∈ L. Zeigen Sie:
a) Ist L = v + Rw ⊂ Rn eine Gerade und s ∈ Rn , so gilt:
s ist orthogonal zu L ⇔ s⊥w .
b) Ist L = {(x1 , x2 ) ∈ R2 : a1 x1 + a2 x2 = b} eine Gerade im R2 , so ist (a1 , a2 ) orthogonal
zu L.
Zu einer Geraden orthogonale Vektoren kann man benutzen, um den kürzesten Abstand
zwischen einem Punkt und einer Geraden zu bestimmen. Ist L = v + Rw ⊂ Rn eine Ge-
rade und u ∈ Rn , so ist der Abstand zwischen u und L definiert als
d(u, L) := min{∥x − u∥ : x ∈ L} .
Zeigen Sie, dass für den Abstand zwischen u und L gilt:
c) Es gibt ein eindeutig bestimmtes x ∈ L, so dass (x − u) orthogonal zu L ist. Für x gilt
d(u, L) = ∥x − u∥ (d. h. der senkrechte Abstand ist der kürzeste).
Für Geraden im R2 kann man den Abstand von einem Punkt noch einfacher beschreiben.
Es gilt:
d) Ist L ⊂ R2 eine Gerade, s ∈ R2 r {0} orthogonal zu L und v ∈ L beliebig, so ist
L = {x ∈ R2 : ⟨s, x − v⟩ = 0} .
Ist u ∈ R2 , so folgt aus c), dass
|⟨s, u − v⟩|
d(u, L) = .
∥s∥
Ist speziell L = {(x1 , x2 ) ∈ R2 : a1 x1 + a2 x2 = b} und u = (u1 , u2 ), so ergibt sich
|a1 u1 + a2 u2 − b|
d(u, L) = √ .
a21 + a22
Mit Hilfe von d) können wir nun für Gleichungen von Geraden im R2 die sogenannte
Hessesche Normalform herleiten: Ist s ∈ R2 r {0} orthogonal zur Geraden L ⊂ R2 , so
1
sei n := ∥s∥ · s. Dann ist ∥n∥ = 1. Man nennt n einen Normalenvektor zu L; nach d) gilt
für beliebiges v ∈ L, dass
L = {x ∈ R2 : ⟨n, x − v⟩ = 0} .
Für jedes u ∈ R2 gilt dann d(u, L) = |⟨n, u − v⟩|, die Funktion ⟨n, u − v⟩ misst also mit
Vorzeichen den Abstand von u zu L.
58 5 Euklidische und unitäre Vektorräume
5. Aufgabe 4 lässt sich leicht verallgemeinern, um den Abstand zwischen einem Punkt
und einer Hyperebene im Rn zu bestimmen; eine Teilmenge H des Rn heißt dabei Hy-
perebene, falls H ein affiner Unterraum der Dimension (n − 1) ist, d. h. es existiert ein
v ∈ Rn und ein Untervektorraum W ⊂ Rn der Dimension (n − 1), so dass H = v + W .
Ist H = v + span (w1 , . . . , wn−1 ) ⊂ Rn eine Hyperebene, so heißt s ∈ Rn orthogonal zu H,
wenn ⟨s, x − y⟩ = 0 für alle x, y ∈ H. Zeigen Sie:
a) s ist orthogonal zu H ⇔ s⊥wi für i = 1, . . . , n − 1.
b) Ist die Hyperebene gegeben durch H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = b}, so
ist (a1 , . . . , an ) orthogonal zu H.
Ist die Hyperebene H also durch eine Gleichung gegeben, so findet man leicht einen
zu H orthogonalen Vektor. Was man tun kann, falls die Ebene in Parameterdarstellung
gegeben ist, wird in Aufgabe 6 zu 5.2 gezeigt.
Ist H ⊂ Rn eine Hyperebene und u ∈ Rn , so ist der Abstand zwischen u und H erklärt
durch
d(u, H) := min{∥x − u∥ : x ∈ H} .
Beweisen Sie:
c) Es gibt ein eindeutig bestimmtes x ∈ H, so dass (x − u) orthogonal zu H ist. Es gilt
d(u, H) = ∥x − u∥ (d. h. der senkrechte Abstand ist der kürzeste).
d) Ist H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = b} und u = (u1 , . . . , un ) ∈ Rn , so gilt
|a1 u1 + . . . + an un − b|
d(u, H) = √ .
a21 + . . . + a2n
Ist N orthogonal zu H mit ∥N∥ = 1 und v ∈ H beliebig, so leitet man wie in Aufgabe 4
die Hessesche Normalform der Gleichung der Hyperebene ab:
H = {x ∈ Rn : ⟨N, x − v⟩ = 0} .
5.2 Das Vektorprodukt im R3 59
6. Seien N ⊂ L (R) wie in Beispiel 2b) aus 2.2.6. Betrachten Sie die Abbildungen
∫
∥ ∥ : L (R) → R , f 7→ | f (t)| dt , und
R
∥ ∥′ : L (R)/N → R , f + N 7→ ∥ f ∥ .
2. Für x, x′ , y, y′ ∈ R3 gilt:
x1 y1 y′1 x1 y1 x1′
a) (x × y) × (x′ × y′ ) = x′ · det x2 y2 y2 − y · det x2
′ ′ y2 x2 .
′
x3 y3 y′3 x3 y3 x3′
b) ⟨x × y, x′ × y′ ⟩ = ⟨x, x′ ⟩⟨y, y′ ⟩ − ⟨y, x′ ⟩⟨x, y′ ⟩.
4. Gegeben sei eine Ebene E = v + Rw1 + Rw2 ⊂ R3 . Zeigen Sie: Setzt man
a := w1 × w2 und b := ⟨v, a⟩, so gilt
E = {x ∈ R3 : ⟨x, a⟩ = b} .
5. Wir wollen mit Hilfe des Vektorproduktes eine Parameterdarstellung der Schnitt-
geraden zweier nichtparalleler Ebenen im R3 bestimmen. Sind zwei Ebenen
E = v + Rw1 + Rw2 , E ′ = v′ + Rw′1 + Rw′2 ⊂ R3 gegeben, so sei W = Rw1 + Rw2 ,
W ′ = Rw′1 + Rw′2 . Da die beiden Ebenen nicht parallel sind, ist W ̸= W ′ , und damit hat
U = W ∩W ′ die Dimension 1. Zeigen Sie:
5. Wir wollen zeigen, dass auf einem R-Vektorraum nicht jede Metrik aus einer Norm
und nicht jede Norm aus einem Skalarprodukt entsteht. (Zur Erinnerung: Eine Norm auf
einem R-Vektorraum V ist eine Abbildung V → R+ mit den Eigenschaften N1, N2, N3
aus 5.1.2, eine Metrik auf V ist eine Abbildung V ×V → R+ mit den Eigenschaften D1,
D2, D3 aus 5.1.2.)
a) Zeigen Sie, dass für n > 2 auf dem Rn durch ∥x∥ := max{|xi | : 1 6 i 6 n} eine Norm
√ ist, für die kein Skalarprodukt ⟨ , ⟩ auf R existiert mit
definiert n
d)∗ Ist f ∈ V und sind ak , bk die Fourierkoeffizienten von f , so gilt die Ungleichung von
Bessel: ∞
∥ f ∥2 > a20 + ∑ (a2k + b2k ) .
k=1
e)∗ Sind f , g ∈ V stückweise stetig differenzierbar, und sind ak , bk die Fourierkoeffizien-
ten von f und a′k , b′k die Fourierkoeffizienten von g, so gilt die Formel von Parseval:
∞
⟨ f , g⟩ = a0 a′0 + ∑ (ak a′k + bk b′k ) .
k=1
8. Bestimmen Sie mit dem Schmidtschen Verfahren eine Orthonormalbasis des folgen-
den Untervektorraums des R5 :
1 1 1 2
0 0 1 1
span 0 , 1 , 1 , 0 .
0 0 0 2
0 0 2 3
10.∗ Ein symplektischer Vektorraum ist ein R-Vektorraum V mit einer schiefsymmetri-
schen Bilinearform ω , die nicht-entartet ist (d.h. dass aus ω (v, w) = 0 für alle w ∈ V
stets v = 0 folgt). Eine Basis (v1 , . . . , vn , w1 , . . . , wn ) von V heißt Darboux-Basis, wenn
gilt: ω (vi , v j ) = ω (wi , w j ) = 0 und ω (vi , w j ) = δi j für alle i, j. Zeigen Sie, dass jeder
endlichdimensionale symplektische Vektorraum eine Darboux-Basis besitzt (und damit
insbesondere gerade Dimension hat).
Ergänzungsaufgaben
E1. Bestimmen Sie nach dem Schmidtschen Verfahren Orthonormalbasen der folgenden
Untervektorräume.
a) span (t (1, 2, 3) , t (4, 5, 6) , t (7, 8, 9)) ⊂ R3 ,
b) span (t (2, 1, 0, 0), t (0, −1, 4, 2), t (1, 0, 2, −2)) ⊂ R4 ,
c) span (t (1, i, −i, 0, 1), t (i, 1, 0, i, 0), t (0, 1, i, −i, −1), t (0, 0, i, 0, 3i)) ⊂ C5 .
E2. Bestimmen Sie eine Orthonormalbasis zu span (t,t 2 + 1,t 2 + t) ⊂ R[t] mit dem
Skalarprodukt aus Aufgabe 9.
64 5 Euklidische und unitäre Vektorräume
c) Es seien A, B ∈ M(n; K) schiefsymmetrisch, d.h. [A, B] = − t[B, A]. Zeigen Sie, dass
es sich um einen K-Vektorraum handelt.
d) Beweisen Sie, dass Sp A = 0 für alle A ∈ o(n; K) gilt.
e) Es seien A, B ∈ o(n; K). Zeigen Sie, dass t[A, B] = −[A, B] gilt, d.h. dass o(n; K) eine
Lie-Algebra ist.
E9. Nach den letzten Aufgaben gilt o(n, R) = u(n) ∩ sl(n, R). Analog definiert man
su(n) := u(n) ∩ sl(n, C) .
Zeigen Sie, dass su(n) einen R-Vektorraum bildet.
E10. Zeigen Sie, dass für A, B,C ∈ gl(n; C) die Jacobi-Identität
[A, [B,C]] + [B, [C, A]] + [C, [A, B]] = 0
gilt. (Bzgl. der Jacobi-Identität für einen anderen Fall vgl. Aufgabe 1 in Abschnitt 5.2.)
Bisher wurden spezielle Fälle von Lie-Algebren untersucht. Die allgemeine Definition
ist:
Definition. Ein Vektorraum V über einen Körper K heißt Lie-Algebra, wenn alle
A, B,C ∈ V die folgenden drei Bedingungen erfüllen:
(1) λ · [A, B] = [λ · A, B] = [A, λ · B] für alle λ ∈ K,
(2) [A, B] = −[B, A],
(3) [A, [B,C]] + [B, [C, A]] + [C, [A, B]] = 0 (Jacobi-Identität).
Hinweis. Lie-Algebren finden Anwendung in der Mathematik und der Physik. Für ma-
thematische Hintergründe vgl. hierzu [F-H], Lecture 8.
Zu Algebra vgl. Aufgabe 7 in Abschnitt 6.3.
E11. Lie-Algebren finden Anwendung in der Quantenmechanik. Ein Beispiel hierfür
sind die folgenden Pauli-Matrizen, die W OLFGANG PAULI (1900–1958) im Zusammen-
hang mit dem Spin von Elektronen verwendete.
Es seien ( ) ( )
1 0 0 1
σ0 = id = , σ1 = ,
( 0 )1 ( 1 0)
0 −i 1 0
σ2 = , σ3 = .
i 0 0 −1
66 5 Euklidische und unitäre Vektorräume
Quadriken
In den folgenden Aufgaben werden wir uns mit Quadriken beschäftigen. Zur Vereinfa-
chung haben wir die Bezeichnungen aus [Fi4], Abschnitt 5.2.7, übernommen.
Quadriken sind verallgemeinerte Kegelschnitte bzw. mathematisch formuliert Teilmen-
gen eines affinen Raums, die durch eine quadratische Gleichung beschrieben wer-
den können. Dies kann auf elegante Weise mit Matrizen definiert werden. Bevor wir
diese Definition formulieren, brauchen wir folgende Notation: für einen Vektor x =
t(x , x , . . . x ) ∈ Rn definieren wir den Vektor x′ ∈ Rn+1 durch x′ = t(1, x , x , . . . x ).
1 2 n 1 2 n
E12.
a) Zeigen Sie, dass die Quadrik des Einheitskreises
Q = { t(x1 , x2 ) ∈ R2 : x12 + x22 − 1 = 0}
auch gegeben ist durch die Matrix A′ mit
1 0 0
A = 0 1 0 .
′
0 0 −1
b) Bestimmen Sie die Matrix A für einen beliebigen Kreis mit Mittelpunkt (m1 , m2 ) und
Radius r.
5.5 Orthogonale und unitäre Endomorphismen 67
Bemerkung. Weitere Quadriken sind Kreise, Ellipsen und Hyperbeln, s. Abschnitt 0.5.
6. Gegeben sei ein symplektischer Vektorraum V (vgl. Aufgabe 10 zu 5.4) und ei-
ne komplexe Struktur J auf V (vgl. Aufgabe 3 zu 5.3), so dass für alle v, w ∈ V gilt:
ω (v, w) = ω (J(v), J(w)) .
a) Zeigen Sie, dass durch ⟨v, w⟩ := ω (v, J(w)) eine symmetrische Bilinearform auf V
definiert wird, und dass J orthogonal bezüglich ⟨ , ⟩ ist, d. h. es gilt
⟨v, w⟩ = ⟨J(v), J(w)⟩ für alle v, w ∈ V .
b) Die komplexe Struktur J heißt ω -kalibriert, wenn ⟨ , ⟩ positiv definit ist. Zeigen Sie,
dass in diesem Fall durch s(v, w) := ⟨v, w⟩− iω (v, w) eine positiv definite hermitesche
Form auf dem von J induzierten C-Vektorraum V gegeben ist.
Ergänzungsaufgabe
E1. Es sei V ein komplexer Vektorraum und s eine positiv definite hermitesche Form
auf V . Ist J : V → V , v 7→ iv, die durch i definierte komplexe Struktur auf dem reellen
Vektorraum RV , so seien für v, w ∈ V
⟨v, w⟩ := Re (s(v, w)) und ω (v, w) := −Im (s(v, w)) .
Zeigen Sie:
a) ⟨ , ⟩ ist eine positiv definite symmetrische Bilinearform auf RV .
b) Mit ω wird RV zu einem symplektischen Vektorraum (vgl. Aufgabe 10∗ zu 5.4).
c) Für alle v, w ∈ V gilt
⟨v, w⟩ = ⟨J(v), J(w)⟩ sowie ω (v, w) = ω (J(v), J(w)) .
Vergleichen Sie diese Aufgabe mit der Aufgabe 6.
Ergänzungsaufgaben
Ein Endomorphismus F eines endlichdimensionalen euklidischen oder unitären Vektor-
raumes V heißt anti-selbstadjungiert, wenn für alle v, w ∈ V gilt:
⟨F(v), w⟩ = −⟨v, F(w)⟩ .
5.7 Hauptachsentransformation∗
1. Sei s die symmetrische Bilinearform auf dem R3 , die gegeben ist durch die Matrix
3 −2 0
−2 2 −2 .
0 −2 1
Bestimmen Sie eine Basis A des R3 , so dass MA (s) Diagonalgestalt hat und eine wei-
tere Basis B, so dass
1 0 0
MB (s) = 0 1 0 .
0 0 −1
70 5 Euklidische und unitäre Vektorräume
Ergänzungsaufgaben
E1. Lösen Sie Aufgabe 10∗ aus Abschnitt 5.4 erneut, diesmal mit den Methoden aus
dem Beweis des Orthonormalisierungssatzes 5.7.5 (Induktion über n).
E2. A ∈ GL(n; C) sei hermitesch und Q(x) = ax2 + bx + c, a > 0.
a) Zeigen Sie, dass für die Spur (vgl. [Fi1], 4.2.2 und die Aufgaben ab E4 in Abschnitt
5.1) von A
( )
( ) ( )
Sp Q(A) = a · ∑ a2ii + 2 ∑ (aRij )2 + (aIi j )2 + b · ∑ aii + c · n
i i< j i
gilt, wenn A0 := En gesetzt wird. Hier stehen aRij für den Realteil und aIi j für den
Imaginärteil von ai j .
b) Es sei
( ( ))
P(A) := c · exp −Sp Q(A) dA
( ( )) n ( )
= c · exp −Sp Q(A) ∏ dAii ∏ dARij dAIi j .
i=1 i< j
∫
Bestimmen Sie c so, dass Rn
2 P(A) = 1 gilt (vgl. [Ba]).
Bemerkung. Obige Überlegung bildet eine Grundlage der Theorie von Zufallsmatrizen,
vgl. [Me]. Diese Matrizen dürfen nicht mit den manchmal genauso bezeichneten Über-
gangsmatrizen in Markov-Ketten verwechselt werden.
Kapitel 6
Dualität∗
Die Inhalte dieses Kapitels sind recht abstrakt und für Anfänger möglicherweise verwir-
rend. Bei näherer Beschäftigung entwickeln sie jedoch ihre Reize: die benutzten Me-
thoden werden im Vergleich zu den bisherigen Kapiteln eleganter. Zusätzlich kann die
hier behandelte Mathematik als Grundstein für tieferes Wissen der Algebra oder als Be-
gleiter zu späteren Inhalten des Grundstudiums oder sogar des Hauptstudiums betrachtet
werden. Dies trifft insbesondere für die Abschnitte 6.3 und 6.4 zu.
6.1 Dualräume
1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A und B. Sind A ∗
und B ∗ die zugehörigen dualen Basen von V ∗ , so gilt für die Transformationsmatrizen
∗
TBA∗ = (t TBA )−1 .
3. Zeigen Sie, dass für einen unitären Vektorraum V durch End(V ) → End(V ),
F 7→ F ad ein Semi-Isomorphismus gegeben ist.
4. Sei A ∈ M(n × n; C) antihermitesch, das heißt −A = t A. Zeigen Sie, dass A normal ist
und alle Eigenwerte von A in iR liegen.
5. Seien L = v + Rw und L′ = v′ + Rw′ zwei Geraden im Rn und x := v′ − v. Zeigen Sie:
L und L′ sind windschief ⇔ x, w und w′ sind linear unabhängig .
Ergänzungsaufgaben
E1. Zeigen Sie, dass ein anti-selbstadjungierter Endomorphismus F (vgl. die Ergän-
zungsaufgaben zu 5.6) eines endlichdimensionalen unitären Vektorraums V normal ist.
E2. Es sei F ein Endomorphismus eines unitären Vektorraumes V und B eine Orthonor-
malbasis von V . Dann gilt:
F ist anti-selbstadjungiert ⇔ MB (F) ist antihermitesch
(vgl. Aufgabe 4).
6.3 Tensorprodukte∗
1. Es sei V ein Vektorraum über einen Körper K und L ⊃ K ein Erweiterungskörper von
L, d.h. L ist ein Körper und K ein Unterring von L (vgl. 1.3.2).
a) Zeigen Sie, dass L eine Struktur als K-Vektorraum trägt.
b) Für Elemente ∑ λi ⊗ vi ∈ L ⊗K V und λ ∈ L definieren wir eine skalare Multiplikation
durch ( )
λ · ∑ λi ⊗ vi := ∑ λ λi ⊗ vi .
Zeigen Sie, dass L⊗K V mit der üblichen Addition und dieser skalaren Multiplikation
zu einem L-Vektorraum wird.
74 6 Dualität∗
c) Ist die Familie (vi )i∈I eine Basis von V über K, so ist die Familie (1 ⊗ vi )i∈I eine
Basis von L ⊗K V über L. Insbesondere gilt dimK V = dimL (L ⊗K V ).
d) Durch die Abbildung
φ : V → K ⊗K V , v 7→ 1 ⊗ v ,
ist ein Isomorphismus von K-Vektorräumen gegeben.
4. Es seien V und W Vektorräume über einen Körper K und (vi )i∈I bzw. (w j ) j∈J Familien
linear unabhängiger Vektoren in V bzw. W .
a) Die Familie
(vi ⊗ w j )(i, j)∈I×J
ist linear unabhängig in V ⊗K W .
b) Für Vektoren v ∈ V und w ∈ W gilt:
v ⊗ w = 0 ⇒ v = 0 oder w = 0 .
6.3 Tensorprodukte∗ 75
8. Zeigen Sie in Analogie zu Theorem 6.3.8 die Existenz eines symmetrischen Produk-
tes:
Für jeden K-Vektorraum V gibt es einen K-Vektorraum V ∨V zusammen mit einer sym-
metrischen Abbildung
∨ : V ×V → V ∨V ,
die folgende universelle Eigenschaft erfüllen: zu jedem K-Vektorraum W zusammen mit
einer symmetrischen Abbildung ξ : V × V → W gibt es genau eine lineare Abbildung
ξ∨ derart, dass das Diagramm
76 6 Dualität∗
V ×V
Q
∨ Q ξ
Q
? Q
Q
s
ξ∨ -
V ∨V W
kommutiert. Ist (v1 , . . . , vn ) eine Basis von V , so ist durch vi ∨ v j := ∨(vi , v j ) mit i 6 j
eine Basis von V ∨V gegeben. Insbesondere ist
( )
n+1 (n + 1)n
dim(V ∨V ) = = .
2 2
9. Beweisen Sie mit Hilfe der universellen Eigenschaften aus Theorem 6.3.3, Theorem
6.3.8 und Aufgabe 8 die Eindeutigkeit von Tensorprodukt, äußerem Produkt und sym-
metrischem Produkt, d.h.
a) gibt es η̃ : V ×W → V ⊗W ˜ mit denselben Eigenschaften, dann existiert ein Isomor-
phismus τ , so dass das Diagramm 1 kommutiert.
V ×W V ×W V ×W
η η̃ ∧ ∧˜ ∨ ∨˜
@
@
R @
@
R @
R
@
τ- τ- τ-
V ⊗W V ⊗W
˜ V ∧W V ∧W
˜ V ∨W V ∨W
˜
(v1 ⊗ v2 ) ⊗ v3 - v1 ⊗ v2 ⊗ v3 v1 ⊗ (v2 ⊗ v3 ) ,
Isomorphismen sind. Folgern Sie daraus, dass für jeden K-Vektorraum W die Vek-
torräume
Bil ((V1 ⊗V2 ),V3 ;W ) , Bil (V1 , (V2 ⊗V3 );W )
(vgl. Aufgabe 2 zu 6.3) und
6.4 Multilineare Algebra∗ 77
mit
(α , β ) 7→ α1 ∧ . . . ∧ αk ∧ β1 ∧ . . . ∧ βl
existiert. Das Element α ∧ β := µ (α , β ) heißt äußeres Produkt von α und β .
b) Es gilt
α ∧ β = (−1)k·l β ∧ α .
Ergänzungsaufgaben
Wir weisen in den folgenden Aufgaben mit den Zusammenhängen
(1) η (u1 , . . . , ui−1 , λ · ui , ui+1 , . . . , uk ) = λ · η (u1 , . . . , ui−1 , ui , ui+1 , . . . , uk )
für alle 1 6 i 6 k und für alle λ ∈ K,
(2) η (u1 , . . . , ui−1 , ui + u∗i , ui+1 , . . . , uk ) = η (u1 , . . . , ui−1 , ui , ui+1 , . . . , uk )
+ η (u1 , . . . , ui−1 , u∗i , ui+1 , . . . , uk )
für alle 1 6 i 6 k, für alle ui , u∗i ∈ Ui ,
nach, dass es sich bei η um eine multilineare Abbildungen handelt.
E1. Für die folgenden Aufgaben bezeichnen wir die Menge der multilinearen Abbildun-
gen zwischen K-Vektorräumen
V1 × . . . ×Vk → W mit Lk (V1 , . . . ,Vk ;W ).
a) Es seien ξ ∈ Lk (V1 , . . . ,Vk ;W ). Für i = 1, . . . , k seien Ui ⊂ Vi Untervektorräume und
fi : Ui → Vi lineare Abbildungen. Ferner sei Z ein K-Vektorraum undg ∈ Hom (W, Z).
Dann ist
g ◦ ξ ( f1 , . . . , fk ) : U1 × . . . ×Uk → Z,
( )
(u1 , . . . , un ) 7→ g ξ ( f1 (u1 ), f2 (u2 ), . . . , fk (uk )) ,
eine multilineare Abbildung, d.h. g ◦ ξ ( f1 , . . . , fk ) ∈ Lk (V1 , . . . ,Vk ; Z). Dies ist im
kommenden Diagramm dargestellt. Es ist zu zeigen, dass das folgende Diagramm
kommutativ ist:
b) Es seien
ξ1 ∈ Lr (V1 , . . . ,Vr ;W1 ),
ξ2 ∈ Lk−r (Vr+1 , . . . ,Vk ;W2 ),
ξ ∈ L2 (W1 ,W2 ; Z).
Dann
( gilt: Die Abbildung
( η : V1 × . . . ×Vk → Z mit )
η v1 , . . . , vk ) 7→ ξ ξ1 (v1 , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ist multilinear, d.h. η ∈ L (V1 , . . . ,Vk ; Z).
k
80 6 Dualität∗
E2. Es sei ξ ∈ Lk (V1 , . . . ,Vk ;W ) multilinear und v ∈ Vi für ein 1 6 i 6 k. Die Abbildung
ξ(i,v) : V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk → W
sei definiert durch
ξ(i,v) (v1 , . . . , vi−1 , vi+1 , . . . , vk ) = ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) .
Beweisen Sie die folgenden Behauptungen.
a) ξ(i,v) ist multilinear, d.h. ξ(i,v) ∈ Lk−1 (V1 , . . . ,Vi−1 ,Vi+1 , . . . ,Vk ).
b) Es sei Vi0 := {v ∈ Vi : ξ(i,v) = 0}. Zeigen Sie, dass Vi0 ein Untervektorraum von Vi ist.
c) Die Abbildung
( )
η : Lk (V1 , . . . ,Vk ;W ) → Hom Vi , Lk−1 (V1 , . . . ,Vi−1 ,Vi+1 , . . . ,Vk ;W ) ,
ξ 7→ (v 7→ ξ(i,v) ),
ist ein Isomorphismus von Vektorräumen.
Im Verlauf dieser Aufgabe werden wir mehrere Indizes für Vektorräume und duale Vek-
torräume brauchen. Um dies übersichtlicher zu machen, werden wir bei Vektoren eines
Vektorraums einen Index im Fuß des Vektors notieren, z.B. vi , wohingegen wir Indi-
zes bei Vektoren des dualen Raums V ∗ im Kopf des Vektors notieren, z.B. vi . Hin und
wieder werden wir auch auf die Einsteinsche Summenkonvention zurückgreifen. Dies
bedeutet, dass, wenn ein Index bei einem Produkt sowohl oben als auch unten auftaucht,
das Summenzeichen weggelassen wird.
Bezeichnet (e1 , e2 , . . . , en ) die kanonische Basis des Rn und v = ∑ni=1 vi ei ∈ V , so kürzt
man dies durch v = vi ei ab. Analog schreibt man ∑ni=1 vi · ei = vi · ei für die kanonische
Basis (e1 , . . . , en ) des dualen Raums V ∗ .
Ferner schreiben wir für das Produkt ei (e j ) = δ ji , wobei δ ji das Kronecker-Symbol
darstellt. Allgemein schreibt man f (v) für v ∈ V und f ∈ V ∗ und nennt dies den Wert
von f an der Stelle v. Eine analoge Schreibweise findet sich in [Fi1] in Abschnitt 6.4.
6.4 Multilineare Algebra∗ 81
E3.
a) V sei ein Vektorraum und V ∗ sein dualer Raum. (e1 , . . . , en ) sei die kanonische Basis
von V . Sei (e′1 , . . . , e′n ) eine weitere Basis von V mit Transformationsformeln
e′j = v′ij · ei und e j = vij · e′i . (6.1)
Für den dualen Raum mit den Basen (e1 , . . . , en ) und (e′1 , . . . , e′n ) gilt
e′j = w′ij · ei und e j = wij · e′i . (6.2)
Zeigen Sie, dass die Matrizen A = (vij )und = A′ (v′i j )
bzw. B = und = (w′i j )
(wij ) B′
jeweils zueinander inverse Matrizen sind.
b) V sei ein Vektorraum und V ∗ sein dualer Raum. (e1 , . . . , en ) sei die kanonische Basis
von V . Sei (e′1 , . . . , e′n ) eine weitere Basis von V mit Transformationsformeln
e′j = v′ij · ei und e j = vij · e′i . (6.3)
Analog sind die Transformationsformeln für den dualen Raum mit Basen (e1 , . . . , en )
und (e′1 , . . . , e′n )
e′ j = vij · ei und e j = v′i j · e′i . (6.4)
Für einen Tensor T seien die Darstellungen bzgl. der Basen gegeben durch
i ···i
T = T j11··· jpp ei1 ⊗ . . . ⊗ ei p ⊗ e j1 ⊗ . . . ⊗ e jq (6.5)
und k ···k
T ′ = Tl1 ···l
1
p
ek1 ⊗ . . . ⊗ e′k p ⊗ e′l1 ⊗ . . . ⊗ e′lq .
p ′
Bestimmen Sie die Transformationsformel für den Wechsel von der Basis (e1 , . . . , en )
zur Basis (e′1 , . . . , e′n ).
c) Es sei x(t) = t(x1 (t), x2 (t), . . . , xn (t)) eine Kurve im Rn . (Für Grundwissen über Kur-
ven vgl. [Fo2], Kapitel 1.)
Zeigen Sie, dass die Geschwindigkeit
( 1 )
dx dxn dx′i ∂ x′ j dx j
v= t ,..., mit =
dt dt dt ∂ x j dt
ein 1-fach kontravarianter Tensor ist (vgl. [Fi1], Abschnitt 6.4).
∂ x′ j
und v′i j = ∂∂ xx′i .
j
Benutzen Sie hierbei vij =
∂ xi
d) Es sei f : Rn → R, (x1 , . . . , xn ) 7→ f (x1 , . . .(, xn ),)eine stetig differenzierbare Funktion
(vgl. [Fo2], Kapitel 1). Zeigen Sie, dass ∂∂ xfi ein 1-fach kovarianter Tensor
16i6n
(vgl. [Fi1], Abschnitt 6.4) ist.
Teil II
Lösungen
Kapitel 0
Lineare Gleichungssysteme
2. a) Wir beziehen uns auf die Definition einer Ebene aus 0.3.2. Hier ist die
Äquivalenz zweier Aussagen zu zeigen. Wir beginnen mit der Hinrichtung“.
”
Wir haben eine Ebene E und damit reelle Zahlen a1 , a2 , a3 , die nicht alle null
sind, sowie ein b ∈ R, so dass
{ }
E = (x1 , x2 , x3 ) ∈ R3 : a1 x1 + a2 x2 + a3 x3 = b .
Die Bezeichnungen seien so gewählt, dass a1 ̸= 0 ist. Nun ist die Existenz von
Vektoren u, v, w zu zeigen, die die in der Aufgabe genannten Eigenschaften ha-
ben. Wir behaupten, dass das für
u = ( ab1 , 0, 0, ) , v = (a2 , −a1 , 0) und w = (a3 , 0, −a1 )
der Fall ist. (Um so etwas behaupten zu können, haben wir natürlich vorher heim-
lich einige Rechnungen angestellt, die aber in der Reinschrift des Beweises nicht
mehr auftauchen. Andere Wahlen von u, v und w führen auch zum Ziel.) Dazu
weisen wir nach, dass diese u, v, w die geforderten Eigenschaften besitzen.
Zuerst zeigen wir E = u + Rv + Rw =: X. Sei (x1 , x2 , x3 ) ∈ E, d.h. nach Defi-
nition a1 x1 + a2 x2 + a3 x3 = b. Dann gilt
( ) ( )
(x1 , x2 , x3 ) = ( ab1 , 0, 0) + − ax21 · (a2 , −a1 , 0) + − ax31 · (a3 , 0, −a1 ) .
Die Wahl λ = − ax21 und µ = − ax31 erfüllt also die Bedingungen. Sie ist zulässig,
weil a1 ̸= 0. Dies zeigt E ⊂ X. Sind umgekehrt λ , µ ∈ R gegeben und (x1 , x2 , x3 ) =
u + λ v + µ w ∈ X, so ist
(x1 , x2 , x3 ) = u + λ v + µ w = ( ab1 , 0, 0) + λ (a2 , −a1 , 0) + µ (a3 , 0, −a1 )
= ( ab1 + λ a2 + µ a3 , −λ a1 , −µ a1 ) ,
woraus
a1 x1 + a2 x2 + a3 x3 = b + λ a1 a2 + µ a1 a3 − λ a1 a2 − µ a1 a3 = b
folgt, also E ⊃ X.
Es ist noch nachzuweisen, dass v = (a2 , −a1 , 0) und w = (a3 , 0, −a1 ) linear
unabhängig sind. Das machen wir mit dem Kriterium iii) (siehe Aufgabe 1),
dem sogenannten Koeffizientenkriterium. Sei
λ · (a2 , −a1 , 0) + µ · (a3 , 0, −a1 ) = (0, 0, 0) .
Das ist gleichbedeutend mit
{ } { }
a2 λ +a3 µ = 0 0=0
−a1 λ =0 , also λ =0 .
−a1 µ = 0 µ =0
Jetzt steht noch die Rückrichtung des Beweises aus. Sei E = u + Rv + Rw
mit linear unabhängigen v, w ∈ V . Dann gilt: für alle (x1 , x2 , x3 ) ∈ E existieren
λ , µ ∈ R mit (x1 , x2 , x3 ) = u + λ · v + µ · w. Die Komponenten der Vektoren u, v, w
0.3 Ebenen und Geraden im Standardraum R3 87
Gäbe es eine zweite Ebene Ẽ ̸= E, die die Punkte x, y und z enthält, so wäre
nach 0.3.4 der Schnitt von E und Ẽ eine Gerade. Da x, y und z nach Vorausset-
zung nicht auf einer Geraden liegen, kann eine solche Ebene Ẽ nicht existieren,
d.h. E ist eindeutig bestimmt.
9 , 9 , 9 , − 9 ).
2. Die Lösung lautet ( 10 11 17 10
3. Dieses LGS enthält einen reellen Parameter t, der die Anzahl der Lösungen
beeinflusst. Wir verfahren wie
( bisher: )
2 4 2 12t
2 12 7 12t + 7
1 10 6 7t + 8
Wir addieren das (−2)-fache der dritten Zeile zu der ersten bzw. zweiten Zeile
und verlegen die dritte Zeile in die erste Zeile:
( )
1 10 6 7t + 8
; 0 −16 −10 −2t − 16
0 −8 −5 −2t − 9
Nun wird das 2-fache der dritten
( Zeile von der zweiten) subtrahiert:
1 10 6 7t + 8
; 0 8 5 2t + 9
0 0 0 2t + 2
Wir sehen, dass es nur dann eine Lösung geben kann, wenn 2t + 2 = 0 ist, denn
die dritte Gleichung des LGS lautet jetzt 0 · x1 + 0 · x2 + 0 · x3 = 2t + 2. Wenn
t = −1 ist, lautet die Matrix ( )
1 10 6 1
0 8 5 7 .
0 0 0 0
Die Lösungen dieser Matrix haben die Form (−9, 4, −5) + R(2, −5, 8). Zusam-
menfassend können wir festhalten, dass das LGS keine Lösung hat, wenn t ̸= −1
ist. Für t = −1 gibt es unendlich viele Lösungen. Es gibt kein t, für das genau
eine Lösung existiert.
4. Die gemeinsame Lösung der Gleichungen
x+y = 2 I
εx + y = 1 II
entspricht dem Schnittpunkt der beiden durch die Gleichungen I und II beschrie-
benen Geraden im oberen Teil von Bild 0.1.
Nun formen wir das lineare Gleichungssystem der Gleichungen I und II um,
und zwar
a) mit dem maximalen Zeilenpivot 1:
x+y = 2 I
(1 − ε )y = 1 − 2ε e ,
II
b) mit dem Pivot ε :
( ε x1+) y = 1 1 II
1− ε y = 2− ε eI .
90 0 Lineare Gleichungssysteme
Bild 0.1
Der Unterschied zwischen den beiden x-Werten ist hier von der Größenordnung
10−6 = 103 · 10−9 und wächst mit der Zahl k an, wie die folgende Tabelle zeigt:
k a) b)
y = 0.998998998 y = 0.998998998
3
x = 1.001001002 x = 1.001002000
y = 0.999999989 y = 0.999999989
8
x = 1.000000011 x = 1.100000000
y = 0.999999998 y = 0.999999998
9
x = 1.000000002 x = 2.000000000
E14.
L = {(1 + i, i, 2i, −3)
+λ · (68 − 3i, 52.5 − 388.5i, −49 − 31i, 43 + 141i) : λ ∈ R}
E15.
L = {(1, i, 2 + i, −3) + λ · (20 − 31i, 16 + 15i, 14 + 38i, 154 − 204i) :
λ ∈ R}
−→
Nehmen wir p = ⃗P als Aufhänger und v = QP = t(3, 2), so ergibt sich die Glei-
chung der Gerade zu ( ) ( )
0 3
y = p+λ ·v = +λ mit λ ∈ R .
8 2
c) Die Schnittpunkte lauten (0, 8) und (−12, 0). Zur Berechnung nutzt man am
bequemsten die in der Aufgabe gegebene Gleichung.
E2. a) Um die Gleichung ~~ in die Form von Gleichung ~ zu überführen,
müssen wir quadratische Ergänzungen vornehmen. Hierzu betrachten wir zuerst
x2 − 4x = (x2 − 4x + 4) − 4 = (x − 2)2 − 4 .
Weiter ergibt sich für y
y2 + 6y = (y2 + 6y + 9) − 9 = (y + 3)2 − 9 .
Damit ergibt sich aus Gleichung ~~
(x − 2)2 − 4 + (y + 3)2 − 9 = 12
und damit
(x − 2)2 + (y + 3)2 = 25 .
Der Mittelpunkt des Kreises ist also M(2, −3), der Radius r = 5.
b) Für einen Kreis vom Radius r um den Ursprung des Koordinatensystems ist
eine Parametrisierung anzusehen durch
x = r · cos φ und y = r · sin φ .
Verschiebt man den Mittelpunkt M des Kreises in M(x0 , y0 ), so gilt
x − x0 = r · cos φ und y − y0 = r · sin φ .
Eine Parametrisierung ist dann gegeben durch
φ 7→ (x0 + r · cos φ , y0 + r · sin φ ) .
Angewendet auf den Kreis aus Teil a) ergibt sich
x − 2 = 5 · cos φ und y + 3 = 5 · sin φ ,
und damit erhält man eine Parametrisierung
φ 7→ (2 + 5 · cos φ , −3 + 5 · sin φ ) mit 0 6 φ < 2π .
E3. a) Für die Schnittpunkte der Ellipse mit der x-Achse gilt y = 0, daraus folgt
x2
= 1 ⇐⇒ x2 = a2 ⇐⇒ x = a oder x = −a .
a2
Die Schnittpunkte mit der x-Achse sind daher (−a, 0) und (a, 0). Analog ergeben
sich die Schnittpunkte (0, −b) und (0, b) mit der y-Achse.
b) Wie in Bild 0.2 zu sehen ist, gilt für die Punkte einer Ellipse mit den Parame-
tern a und b x2 y2
cos2 (φ ) = 2 und sin2 (φ ) = 2
a b
94 0 Lineare Gleichungssysteme
b
M(x, y)
y
φ x
−a x a
−b
Bild 0.2: Schnittstellen mit den Achsen und der Winkel zur Parametrisierung
Löst man die Gleichung der Ellipse nach y2 auf, so ergibt sich
b2
y2 = (a2 − x2 ) · . (0.2)
a2
Mit Hilfe von e = a · ε und e2 = a2 − b2 folgt
b2 = a2 − e2 = a2 − a2 · ε 2 = a2 (1 − ε 2 ),
daher gilt
b2
= 1 − ε 2.
a2
0.5 Geraden und Quadratische Kurven im R2 95
b) Es ergibt sich Bild 0.3. Die dort abgebildeten Graphen heißen Hyperbeln.
Hyperbeln bestehen aus zwei Teilen.
y y
√
√ 3
√ √ √
y=± 3
2 · x2 − 2 y=± 3
· x2 + 2
2
√ √ x x
− 2 2 √
− 3
b) Nach den Ergebnissen aus Teil a) gilt für Punkte auf der rechten Seite
r1 − r2 = xε + a − (xε − a) = 2a .
Für Punkte auf der linken Seite ergibt sich
r1 − r2 = −(xε + a) + (xε − a) = −2a .
c) Es gilt d1 = x + εa und d2 = x − εa . Daraus folgt
r1 xε + a (xε + a)ε
= = =ε
d1 x + εa xε + a
und r2 xε − a (xε − a)ε
= = =ε.
d2 x − εa xε − a
2
x2
d) Es ist − by2 = 1. Daraus folgt
a2
( 2 )
x b2 ( )
y2 = b2 2 − 1 = 2 x 2 − a2 .
a a
Hiermit ergibt sich
b √
y=± x 2 − a2 .
a
Für die Differenzen der y-Werte der Hyperbel und der Geraden y = ba x folgt
( ) ( ) ( )
b b√ 2 b b√ 2 b b
lim x− x − a2 = lim x− x = lim x− x = 0.
x→∞ a a x→∞ a a x→∞ a a
Es gilt analog für das andere Vorzeichen, hiermit folgt die Behauptung.
Kapitel 1
Grundbegriffe
Die vierte Behauptung ist interessant, weil wir uns hier zusätzlich klarmachen
müssen, dass eine echte Teilmenge vorliegen kann. Für den Beweis der Behaup-
tung sei y ∈ f (M1 ∩ M2 ). Dann gibt es ein x ∈ M1 ∩ M2 mit f (x) = y, also y =
f (x) ∈ f (M1 ) und y = f (x) ∈ f (M2 ). Das jedoch bedeutet y ∈ f (M1 ) ∩ f (M2 ).
Ein Beispiel für f (M1 ∩ M2 ) ̸= f (M1 ) ∩ f (M2 ) liefern die Mengen
M1 = {0, 1} und M2 = {2, 3} mit einer Abbildung f , die definiert ist durch
0 7→ a, 1 7→ b, 2 7→ b, 3 7→ c (vgl. Bild 1.1).
Bild 1.1
b) Sei g ◦ f surjektiv. Wir zeigen, dass dann auch g surjektiv ist. Sei z ∈ Z be-
liebig. Da g ◦ f surjektiv ist, existiert ein x ∈ X mit z = g ◦ f (x) = g( f (x)) und
y := f (x) ∈ Y , also g(y) = z. Damit haben wir gezeigt, dass jedes beliebige z ∈ Z
durch die Abbildung g getroffen“ wird.
”
4. In dieser Aufgabe sollen einige Abbildungen auf Injektivität bzw. Surjektivität
untersucht werden. Um zu begründen, dass eine Abbildung eine Eigenschaft
nicht besitzt, reicht es aus, ein einziges Gegenbeispiel anzugeben. Wollen wir
jedoch zeigen, dass eine Abbildung z.B. injektiv ist, muss das anhand der Defi-
nition von Injektivität für alle Elemente des Definitionsbereiches nachgewiesen
werden. Eine anschauliche Argumentation ist nicht zulässig, denn die Anschau-
ung ist für Beweiszwecke manchmal zu ungenau; sie liefert aber oft Ideen.
a) f1 ist nicht injektiv, denn f1 (1, 0) = 1 = f1 (0, 1) aber (1, 0) ̸= (0, 1), d.h. zwei
verschiedene Elemente aus der Definitionsmenge werden auf dasselbe Element
der Wertemenge abgebildet.
f1 ist surjektiv, denn für alle r ∈ R ist (r, 0) ∈ R2 und f1 (r, 0) = r + 0 = r; jedes
Element der Bildmenge R wird also getroffen“.
”
b) f2 ist nicht injektiv, denn f2−1 (0) ist der gesamte Einheitskreis.
f2 ist auch nicht surjektiv, x2 + y2 − 1 > −1 für alle x, y ∈ R.
c) f3 ist injektiv. Das weisen wir wie folgt nach: Sei
(x1 + 2y1 , 2x1 − y1 ) = (x2 + 2y2 , 2x2 − y2 ) .
Wir folgern
x1 + 2y1 = x2 + 2y2 und 2x1 − y1 = 2x2 − y2
⇒ x1 = x2 + 2y2 − 2y1 und 2(x2 + 2y2 − 2y1 ) − y1 = 2x2 − y2
⇒ x1 = x2 + 2y2 − 2y1 und y1 = y2
⇒ x1 = x2 und y1 = y2
⇒ (x1 , y1 ) = (x2 , y2 ) .
f3 ist auch surjektiv. Ein beliebiges Element (λ , µ ) ∈ R2 hat stets ein Urbild,
nämlich ( 15 λ + 25 µ , 25 λ − 51 µ ), wie man durch Nachrechen bestätigen kann. Wenn
wir uns mehr mit der Theorie und Praxis linearer Abbildungen beschäftigt haben,
werden wir eine schnellere Argumentation für diese Aufgabe gefunden haben.
Die Abbildung f3 : R2 → R2 kann(durch die ) Matrix
1 2
2 −1
beschrieben werden, die maximalen Rang hat, was man schon daran sehen
kann, dass die zweite Spalte kein Vielfaches der ersten ist. Quadratische Ma-
trizen maximalen Ranges beschreiben bijektive Abbildungen (vgl. Bemerkung 2
aus 2.5).
1.1 Mengen und Abbildungen 101
5. Die in dieser Aufgabe eingeforderten Beweise kann man mit gutem Gewissen
als klassisch bezeichnen. Man kann nicht verlangen, dass jedem an Mathematik
interessierten Menschen die Ideen zu diesen Beweisen selbst kommen. Wichtig
ist jedoch, dass man die Ideen versteht und kennt. Das spiegelt sich auch in der
Tatsache wider, dass kaum jemand die Beweise jemals ausführlich aufgeschrie-
ben hat. Auch wir werden uns auf die Darstellung der Beweisidee beschränken.
a) Z ist abzählbar (unendlich), da man eine bijektive Abbildung N → Z angeben
kann. Wir geben nur die Abbildung an und lassen den Beweis der Bijektivität aus.
Es sei 0 7→ 0, 2k + 1 7→ k, 2k 7→ −k für k ∈ N. Die ungeraden natürlichen Zahlen
werden also auf die positiven ganzen Zahlen abgebildet; die geraden natürlichen
Zahlen gehen auf die negativen ganzen Zahlen.
Um zu zeigen, dass auch Q abzählbar ist, verwendet man das Erste Cantorsche
Diagonalverfahren. Wir stellen uns alle positiven Brüche als unendlich großes
Schema vor:
1 → 2 3 → 4 ···
1 1 1 1
↙ ↗ ↙
4 ···
2 2 2 2
1 2 3
↓ ↗ ↙ ↗
4 ···
3 3 3 3
1 2 3
↙ ↗
4 ···
4 4 4 4
1 2 3
↓ ↗
4 ···
5 5 5 5
1 2 3
.. .. .. .. . .
. . . . .
Wie durch die Pfeile angedeutet, lassen sich so alle hier aufgeführten Brüche in
eine Reihenfolge bringen. Das ist schon eine Vorform der bijektiven Abbildung
N → Q. Nun streichen wir alle ungekürzten Brüche, damit keine rationalen Zah-
len mehrfach auftreten. Unter den obigen Brüchen müssten wir 22 , 24 , 33 , 42 und 44
streichen. Nach einem systematischen Hinzufügen der Null und der negativen
Brüche (z.B. nach dem Konzept, das wir für den Nachweis der Abzählbarkeit
von Z verwendet haben), erhalten wir so eine bijektive Abbildung N → Q.
b) Der Beweis, dass R nicht abzählbar ist, ist als Zweites Cantorsches Diagonal-
verfahren berühmt geworden. Er wird als Widerspruchsbeweis geführt.
Wir nehmen an, R sei doch abzählbar. Dann ist auch das Intervall ]0; 1[ ab-
zählbar, also muss man eine (unendlich lange) Liste aller reellen Zahlen aus
]0; 1[ angeben können. Wir stellen uns vor, diese Liste sei in Dezimalschreib-
weise gegeben. Ohne Einschränkungen kann man verlangen, dass jeder die-
ser Dezimalbrüche in unendlicher Dezimalbruchentwicklung gegeben ist, indem
102 1 Grundbegriffe
man eventuell noch Nullen anfügt. Die Liste sähe dann etwa so aus:
a1 := 0, a11 a12 a13 a14 . . .
a2 := 0, a21 a22 a23 a24 . . .
a3 := 0, a31 a32 a33 a34 . . .
.. .. .. .. .. ..
. . . . . . ,
wobei ai j ∈ {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} gilt. Nun konstruieren wir eine reelle Zahl z
aus ]0; 1[, die in der Liste nicht vorhanden ist. Das stellt einen Widerspruch zur
Annahme dar, die Liste wäre vollständig.
Es sei
z := 0, b1 b2 b3 b4 b5 . . .
mit bi = 1 falls aii ̸= 1,
bi = 0 falls aii = 1.
z ̸= ai für alle i, weil die Zahlen an der i-ten Dezimale nicht übereinstimmen.
c) Die Argumentation ist ähnlich dem zweiten Cantorschen Diagonalverfahren
(s.o.). Sei M ̸= 0. / Wir zeigen, dass es in diesem Fall keine surjektive Abbildung
M → Abb (M, {0, 1}) geben kann.
Nehmen wir an, es existiert eine solche Abbildung. Diese ordnet jedem
m ∈ M ein eindeutiges Element f ∈ Abb (M, {0, 1}) zu, das wir mit fm bezeich-
nen wollen, d.h. diese Abbildung ist von der Form
φ : M → Abb (M, {0, 1}) , m 7→ fm .
Wir konstruieren nun eine Abbildung g ∈ Abb (M, {0, 1}), die nicht im Bild von
φ liegt. Dazu definieren wir
g : M → {0, 1}
durch
g(m) ̸= fm (m) für alle m ∈ M .
Da {0, 1} mehr als ein Element hat, existiert ein solches g. Nach Konstrukti-
on liegt g nicht im Bild von φ , denn wäre g = fm0 für ein m0 ∈ M, so wäre
g(m0 ) = fm0 (m0 ) im Widerspruch zur Konstruktion von g.
6. Das Mathematikerhotel ist ein weiteres berühmtes Beispiel, mit dem man den
Umgang mit bijektiven Abbildungen üben kann. Es veranschaulicht außerdem
auf amüsante Weise die eigentlich unbegreifliche Unendlichkeit der natürlichen
Zahlen.
1.1 Mengen und Abbildungen 103
a) Trifft ein neuer Gast ein, so zieht jeder Gast von Zimmer N nach N + 1 um.
So wird Zimmer 0 für den Neuankömmling frei.
b) Bei n neuen Gästen ist das Vorgehen ähnlich: Jeder Gast zieht von Zimmer N
nach N + n um. Die Zimmer 0, 1, 2, . . . n − 1 werden frei und können von den neu
eintreffenden Gästen bezogen werden.
c) Treffen N neue Gäste ein, so muss jeder Gast aus Zimmer N nach 2N umzie-
hen. So werden die Zimmer mit den ungeraden Nummern frei.
d) Bei n · N neuen Gästen müssen wieder alle alten Gäste umziehen, diesmal von
Zimmer N nach (n + 1)N.
e) Wenn N · N Neuankömmlinge eintreffen, wird es etwas komplizierter. Zu-
nächst weisen wir jedem Gast ein Element aus N × N zu.
(0, 0) (0, 1) (0, 3) · · · für die alten Gäste
(1, 0) (1, 1) (1, 3) · · · für die Gäste aus Bus 1
(2, 0) (2, 1) (2, 3) · · · für die Gäste aus Bus 2
..
.
(n, 0) (n, 1) (n, 3) · · · für die Gäste aus Bus n
..
.
Nach dem Cantorschen Verfahren (siehe Lösung zu Aufgabe 5a) bekommen nun
die Gäste ihre neuen Zimmer zugewiesen.
Fazit: Schlafe nie in einem Mathematikerhotel, du wirst immer umziehen müs-
sen, sobald neue Gäste eintreffen!
Lösungen der Ergänzungsaufgaben
Ergänzung zu Aufgabe 2 d). Wir zeigen beide Richtungen von
f ist injektiv ⇔ f (M1 ∩ M2 ) = f (M1 ) ∩ f (M2 )
für alle Teilmengen M1 , M2 ⊂ M.
Für die Hinrichtung“ genügt es, die Inklusion
”
f (M1 ∩ M2 ) ⊃ f (M1 ) ∩ f (M2 )
zu zeigen, da die andere Inklusion nach Aufgabe 2 d) immer gilt. Sei dazu
y ∈ f (M1 ) ∩ f (M2 ). Dann gibt es ein x1 ∈ M1 und ein x2 ∈ M2 mit
y = f (x1 ) = f (x2 ) .
Da f injektiv ist, gilt x1 = x2 , d.h. x1 ∈ M1 ∩ M2 und somit y ∈ f (M1 ∩ M2 ).
Nun zeigen wir die andere Richtung. Hierzu nehmen wir an, dass f nicht in-
jektiv ist. Dann existieren x1 , x2 ∈ M mit x1 ̸= x2 und y = f (x1 ) = f (x2 ). Wählen
wir M1 := {x1 } und M2 := {x2 }, so folgt
f (M1 ∩ M2 ) = 0/ ̸= {y} = f (M1 ) ∩ f (M2 ) .
104 1 Grundbegriffe
1.2 Gruppen
1. Die Behauptung lautet ab = ba für alle a, b ∈ G. Seien a, b ∈ G beliebig. Nach
der Voraussetzung gilt wegen der Eindeutigkeit von inversen Elementen a = a−1
und b = b−1 sowie ab = (ab)−1 . Mit Hilfe der Bemerkung 1.2.3 c) folgt daraus
ab = (ab)−1 = b−1 a−1 = ba ,
also ab = ba, was zu beweisen war.
2. Wir zeigen gleich, dass alle Gruppen G mit höchstens vier Elementen abelsch
sind: Hat G nur ein Element, ist die Behauptung klar.
Sei G = {e, x}, wobei x das neutrale Element bezeichne. Dann muss nach der
Eigenschaft des neutralen Elements ex = x = xe gelten.
Sei G = {e, x, y}. Das neutrale Element e kommutiert mit jedem anderen Grup-
penelement. Es ist nur zu testen, ob xy = yx gilt. Es gibt drei Möglichkeiten, denn
es gilt xy ∈ {e, x, y}. Ist xy = e, so ist y = x−1 , und daraus folgt xy = yx. Die beiden
anderen Fälle können nicht auftreten, denn gilt
xy = x = xe, so folgt y = e, ein Widerspruch. Den übriggebliebenen Fall kann
man analog zum Widerspruch führen.
Sei G = {e, x, y, z}. e kommutiert mit allen anderen Elementen. Für den Fall
xy ∈ {e, x, y} gilt xy = yx mit demselben Argument wie oben. Analog folgt
yx = xy für yx ∈ {e, x, y}. Damit gilt jedoch xy = z genau dann, wenn yx = z
gilt, d.h. xy = yx auch in diesem Fall.
Ein analoges Argument greift für xz = zx und yz = zy.
1.2 Gruppen 105
Alle Gruppen mit höchstens vier Elementen sind, wie man sich nach den
obigen Ausführungen überlegen kann, bis auf Isomorphie ({e}, +), (Z/2Z, +),
(Z/3Z, +), (Z/4Z, +) und (Z/2Z, +) × (Z/2Z, +).
3. Um zu testen, ob ein Gruppenhomomorphismus vorliegt, müssen wir sorgfäl-
tig beachten, welche Verknüpfungen in der Ausgangsgruppe und welche in der
Bildgruppe gemeint sind.
a) f1 ist ein Gruppenhomomorphismus, denn für alle x, y ∈ G gilt
f1 (x + y) = 2(x + y) = 2x + 2y = f1 (x) + f1 (y) .
b) f2 ist kein Gruppenhomomorphismus, denn f2 (1 + 0) = f2 (1) = 2, aber
f2 (1) + f2 (0) = 2 + 1 = 3.
c) f3 ist ebenfalls kein Gruppenhomomorphismus, weil
f3 (1 + 1) = f3 (2) = 22 + 1 = 5 ,
aber
f3 (1) · f3 (1) = (12 + 1) · (12 + 1) = 4 .
d) Hier sind die Gruppen multiplikativ geschrieben. f4 ist ein Gruppenhomomor-
phismus, denn für alle a + ib, c + id ∈ C∗ gilt:
f4 ((a + ib)(c + id)) = f4 ((ac − bd) + i(ad + bc))
√
= (ac − bd)2 + (ad + bc)2
√ √ √
= (a2 + b2 ) · (c2 + d 2 ) = a2 + b2 · c2 + d 2
= f4 (a + ib) · f4 (c + id) .
e) f5 ist für (C, +) und (R, +) kein Gruppenhomomorphismus,
√ denn es gilt z.B.
f5 (1) + f5 (i) = 1 + 1 = 2, aber f5 (1 + i) = 2.
f) Bei f6 liegt wieder ein Gruppenhomomorphismus vor. Für alle x, y ∈ Z gilt
nämlich
p−1 ( )
f6 (x + y) − f6 (x) − f6 (y) = (x + y) p − x p − y p = ∑ pi xi y p−i
i=1
p−1 p−1
= ∑ p! i p−i
i!(p−i)! x y = p· ∑ (p−1)! i p−i
i!(p−i)! x y ∈ pZ ,
i=1 i=1 | {z }
∈Z
Zusätzlich sind in einer Untergruppe die inversen Elemente dieselben wie in der
ursprünglichen Gruppe.
Für den Fall, dass A nur ein Element a umfasst, gilt
erz ({a}) = {e, an , (a−1 )n : n ∈ N} ,
wobei e das neutrale Element bezeichnet. Eine solche Gruppe muss nicht not-
wendigerweise unendlich viele Elemente haben, vgl. Aufgabe 6. Eine Gruppe,
die von nur einem Element erzeugt werden kann, heißt zyklisch. Gilt a = e, so
besteht die von {a} erzeugte Untergruppe nur aus dem neutralen Element.
5. Die Diedergruppen ( Di-e-der“ spricht sich dreisilbig) sind ein relativ einfa-
”
ches Beispiel für eine nicht kommutative Gruppe mit endlich vielen Elementen.
Wir machen uns zunächst einige Zusammenhänge klar, um diese Symmetrie-
gruppen von Vielecken (siehe Bild 1.2 für n = 5 und n = 6) besser zu verstehen.
Für beliebiges n ∈ N gilt d n = e und s2 = e. Stellt man die Gruppenelemente
als Matrizen dar (vgl. 2.4 und 2.5), so gilt
( ) ( )
cos( 2nπ ) − sin( 2nπ ) 1 0
d= und s = .
sin( 2nπ ) cos( 2nπ ) 0 −1
Man kann nachweisen, dass sd = d n−1 s ist. Dies ist an Bild 1.2 zu erkennen, und
mit Hilfe der Multiplikation von Matrizen (vgl. 2.5) sowie der oben angegebenen
Matrizen kann die Behauptung leicht bewiesen werden.
Bild 1.2
6. a) Wir wissen bereits aus Aufgabe 4, dass die Gruppe G aus Elementen der
Gestalt e, g, g2 , g3 , . . . , g−1 , g−2 , g−3 , . . . bestehen muss. Ist G endlich, so gibt es
ein n ∈ N mit gn = e. Ohne Einschränkungen wählen wir uns das kleinste n mit
dieser Eigenschaft. Dann ist G = {e = gn , g, g2 , g3 , . . . , gn−1 }. Die Gruppentafel
lautet
· e g g2 g3 · · · gn−1
e e g g2 g3 · · · gn−1
g g g 2 g3 · · · e
g2 g2 g3 g4 · · · g
..
g3 g3 g4 · · · .
.. .. .. ..
. . . .
gn−1 gn−1 e g g2 · · · gn−2 .
Ist G unendlich, so gilt gn gm = gn+m für alle n, m ∈ Z. Es ist offensichtlich, dass
eine solche zyklische Gruppe immer kommutativ ist. Entsprechend den Konven-
tionen können wir die Verknüpfung also auch additiv schreiben.
b)∗ Sei G (additiv geschrieben) eine zyklische Gruppe mit erzeugendem Element
g. Nun müssen wir zwei Fälle unterscheiden.
i) Ist g von endlicher Ordnung, so existiert ein n ∈ N mit
ng := g + g + . . . + g = 0 .
| {z }
n-mal
n sei minimal mit dieser Eigenschaft. Dann ist die Abbildung G → Z/nZ,
kg 7→ k + nZ, ein Isomorphismus von Gruppen. Das Nachrechnen der Linea-
rität und Bijektivität lassen wir an dieser Stelle aus.
ii) Ist g von unendlicher Ordnung, d.h. g + g + . . . + g ̸= 0, egal, wie oft man g
addiert, so gilt G ∼
= Z via kg 7→ k.
Zunächst müssen wir zeigen, dass ∼ eine Äquivalenzrelation ist. Dafür testen
wir die drei Eigenschaften Reflexivität, Symmetrie und Transitivität. Das bereitet
keine weiteren Probleme, denn es gilt:
x ∼ x bedeutet nach Definition xx−1 = e ∈ H .
x ∼ y entspricht xy−1 ∈ H, also (xy−1 )−1 ∈ H, und damit
yx−1 ∈ H, d.h. y ∼ x .
x ∼ y und y ∼ z ist gleichbedeutend mit xy−1 ∈ H und yz−1 ∈ H ,
also xy−1 · yz−1 = xz−1 ∈ H,
das bedeutet gerade x ∼ z.
Damit die Verknüpfung auf Restklassen wohldefiniert ist, muss sie unabhängig
von der Wahl des Repräsentanten aus einer Restklasse sein, mit dem man konkret
rechnet. Seien also x und x′ sowie y und y′ jeweils aus derselben Restklasse, d.h.
x ∼ x′ und y ∼ y′ . Wir zeigen xy ∼ x′ y′ . Nach Voraussetzung gilt xx′ −1 ∈ H und
yy′ −1 ∈ H. Liegt xy(x′ y′ )−1 in H, so ist die Behauptung gezeigt.
−1 ′ −1
xy(x′ y′ )−1 = xyy′ x
G abelsch ′ −1 ′ −1
= |xx{z } yy ∈H.
| {z }
∈H ∈H
G/H wird so zu einer abelschen Gruppe (Gruppeneigenschaften nachprüfen!).
Das neutrale Element ist 1, die Restklasse, die das neutrale Element 1 enthält.
Invers zu x ist x−1 , die Restklasse, die das in G inverse Element zu x enthält. Die
Kommutativität vererbt sich von G auf G/H.
Die abelschen Gruppen Z und nZ schreibt man immer additiv, die Übertra-
gung der hier dargestellten Restklassenbildung könnte also auf Probleme bei
der Übertragung multiplikativ gedachter Sachverhalte auf eine additive Gruppe
stoßen. Deshalb wollen wir noch angeben, dass die Äquivalenzrelation nun
x ∼ y ⇔ x + (−y) ist teilbar durch n
lautet.
8. Die Verknüpfung ◦ wird durch die folgende Tabelle definiert, dabei steht die
erste Zahl“ senkrecht:
” ◦ 1 2 3
1 1 3 2
2 3 2 1
3 2 1 3
Wie an den Zeilen bzw. den Spalten der Tabelle erkennbar ist, sind alle Trans-
lationen a τ und τa surjektiv (sie sind bijektiv), denn in jeder Zeile und in jeder
Spalte kommt jedes Element aus G vor.
1.2 Gruppen 109
E2. Die einzigen Untergruppen der ganzen Zahlen sind vom Typ mZ mit m ∈ N.
Dass es sich wirklich um Untergruppen handelt, findet sich in Beispiel c) in
Abschnitt 1.2.6 in [Fi1]. Es bleibt zu zeigen, dass es keine weitere Untergruppen
der ganzen Zahlen gibt, d.h. für jede Untergruppe U von Z ein m ∈ N existiert
mit U = mZ.
U sei eine Untergruppe der ganzen Zahlen. Es existiert ein kleinstes positives
Element m ∈ U. Aufgrund der Bedingungen einer Untergruppe ist mZ ⊂ U. Sei
jetzt u ∈ U. Nach der Division mit Rest existieren ein q ∈ Z und ein 0 6 r < m
mit u = q · m + r. Hieraus folgt r = u − q · m. m war jedoch minimal gewählt,
daraus folgt r = 0, und hiermit gilt u = q · m. Aufgrund von q ∈ Z ist q · m ∈ mZ.
E3. a) Zu zeigen ist
!
U1 ∪U2 ist Untergruppe von G ⇐⇒ U1 ⊆ U2 oder U2 ⊆ U1
⇐“: Für den Fall U1 ⊆ U2 gilt U1 ∪ U2 = U2 , und U2 ist eine Untergruppe von
”
U. Analog für U2 ⊆ U1 .
⇒“: Wir führen einen Widerspruchsbeweis.
”
U1 ∪U2 sei eine Untergruppe von G. Gilt
U1 * U2 und U2 * U1 , (1.1)
so existieren ein u1 ∈ U1 r U2 und ein u2 ∈ U2 r U1 . Da u1 , u2 ∈ U1 ∪ U2 und
U1 ∪U2 eine Untergruppe von U ist, folgt u1 u2 ∈ U1 ∪U2 .
Können wir zeigen, dass u1 ∈ U2 oder u2 ∈ U1 liegt, sind wir fertig, denn es
ist ein Widerspruch zu (1.1). Wir beschränken uns o.B.d.A. auf den ersten Fall.
Gilt u1 u2 ∈ U1 . Dann gibt es ein ũ1 ∈ U1 mit ũ1 = u1 u2 . U1 ist eine Gruppe.
Daher existiert ein inverses Element ũ−11 , und es folgt
u−1 −1
1 · (u1 · u2 ) = u1 · ũ1 ∈ U1 .
Hiermit ergibt sich
u2 = e · u2 = (u−1 −1 −1
1 · u1 ) · u2 = u1 · (u1 · u2 ) = u1 · ũ1 ∈ U1 .
Dies ist jedoch ein Widerspruch zur Annahme.
b) Wir führen wieder einen Beweis per Widerspruch. Wäre U1 ∪ U2 = G, so
wäre nach Teil a) U1 ⊆ U2 oder U2 ⊆ U1 . Dann folgt G = U1 ∪ U2 = U1 oder
G = U1 ∪U2 = U2 . Es handelt sich um einen Widerspruch zu U1 ,U2 ̸= G.
c) Für den Fall, dass U1U2 ⊆ G eine Untergruppe ist, gilt für u1 ∈ U1 auch
u−1
1 ∈ U1 , analog für u2 ∈ U2 . Ist U1U2 eine Untergruppe von G, so existiert zu
u1 u2 ∈ U1U2 auch das inverse (u1 u2 )−1 ∈ U1U2 . Andererseits gilt (u1 u2 )−1 =
u−1 −1
2 u1 . Da dies für alle u1 ∈ U1 und alle u2 ∈ U2 gilt, folgt U1U2 = U2U1 .
Angenommen, U1U2 = U2U1 . Da es sich dabei um Untergruppen handelt, ist
das neutrale Element e von G sowohl in U1 als auch in U2 enthalten, d.h. e ∈ U1
1.2 Gruppen 111
Die Abgeschlossenheit ist daran zu erkennen, dass die Tabelle nur mit Drehun-
gen gefüllt ist. Das Assoziativgesetz (G1) zeigt sich auch mit Hilfe der Tabelle.
Es liegt an der Symmetrie der Tabelle zur diagonalen Achse durch die Zellen,
welche die Verknüpfungen derselben Drehungen enthält. Hierbei ist zu beden-
ken, dass das Ergebnis der ersten vollbrachten Verknüpfung wiederum mit der
dritten Drehung in derselben Tabelle zu verknüpfen ist.
Das neutrale Element ist die identische Abbildung. An der Tabelle ist zu er-
kennen, dass in der Zeile bzw. Spalte mit id dieselben Drehungen stehen wie in
der zugehörigen Spalte bzw. Zeile.
Jedes Element besitzt genau ein inverses Element, da in jeder Zeile bzw. in
jeder Spalte der Tabelle genau einmal die Identität auftritt. Damit ist auch (G2)
nachgewiesen.
Dass es sich um eine abelsche Gruppe handelt, sieht man an der Symmetrie
der Tabelle zur Diagonalen.
c) Um zu zeigen, dass die Spiegelungen S := {id, sa , sb , cc , sd } keine Gruppe
bilden, reicht ein Gegenbeispiel aus. Wir notieren mit Blick auf Teil d) alle Ele-
mente der Gruppe:
[ ] [ ] [ ]
1 2 3 4 1 2 3 4 1 2 3 4
id : sa : sb :
1 2 3 4 4 3 2 1 2 1 4 3
[ ] [ ]
1 2 3 4 1 2 3 4
sc : sd :
3 2 1 4 1 4 3 2
Die Menge der Spiegelungen ist nicht abgeschlossen, wie sich an den folgenden
Beispielen zeigt: [ ]
1 2 3 4
sa ◦ sb : ∈
/S
[ 3 4 1 2 ]
1 2 3 4
sc ◦ sa : ∈
/S
[ 4 1 2 3 ]
1 2 3 4
sa ◦ sc : ∈
/S
2 3 4 1
Die letzten beiden Beispiele zeigen auch, dass die Verknüpfung nicht abelsch ist.
d) Die Vereinigung der Drehungen und Spiegelungen bildet eine Gruppe. Dies
lässt sich mit Hilfe einer analogen Tabelle wie in Teil b) erkennen. Es zeigte sich
bereits in Aufgabenteil c), dass die Gruppe nicht kommutativ ist. Hinzu kommt,
dass die Menge der Spiegelungen nicht abgeschlossen bzgl. der Operation ist,
wie sich auch bereits in Aufgabenteil c) zeigte.
Die Gruppe D4 ∪ S4 bezeichnet man als Symmetriegruppe, vgl. auch die
Lösung von Aufgabe 5 dieses Abschnitts.
1.2 Gruppen 113
E7. Aus char (K) ̸= 2, 3 folgt 4 ̸= 0 ̸= 27, was im folgenden Beweis verwendet
wird.
a) ⇒ b): Zu zeigen ist
!
4a3 + 27b2 ̸= 0 ⇒ @ c, d ∈ K mit x3 + ax + b = (x + c)2 (x + d) .
Wir zeigen die Negation und nehmen an, es existieren c, d ∈ K mit
x3 + ax + b = (x + c)2 (x + d) .
Es gilt
(x + c)2 (x + d) = (x2 + 2cx + c2 )(x + d)
= x3 + 2cx2 + c2 x + dx2 + 2cdx + c2 d
= x3 + (2c + d)x2 + (c2 + 2cd)x + c2 d .
Dann folgt
x3 + ax + b = x3 + (2c + d)x2 + (c2 + 2cd)x + c2 d .
Durch einen Koeffizientenvergleich ergibt sich
2c + d = 0 ⇒ d = −2c , daraus folgt
E8. Wir führen einen Beweis per Induktion über n. Für n = 1 und n = 2 ist die
Behauptung klar.
n → n + 1: Nach dem Fundamentalsatz der Algebra und dem Korollar 1.3.5 in
[Fi1] existieren x1 , x2 , . . . , xn+1 , so dass
xn+1 +an xn +an−1 xn−1 +. . .+a1 x+a0 = (x−x1 )(x−x2 )·. . .·(x−xn )(x−xn+1 ) .
Nach der Induktionsannahme gilt
(x − x1 )(x − x2 ) · . . . · (x − xn ) · x
n ( )
= ∑ (−1)n−i ∑ x j1 x j2 · . . . · x jn−i · xi ,
i=0 16 j1 < j2 <...< jn−i 6n
| {z }
=:bi
womit folgt
( )
(x−x1 )(x−x2 )·. . .·(x−xn )(x−xn+1 ) = (x−x1 )(x−x2 )·. . .·(x−xn ) (x−xn+1 )
( n )
= ∑ bi x i · (x − xn+1 )
i=0
n n
= ∑ bixi+1 − ∑ bixn+1xi
i=0 i=0
n+1 n
= ∑ bi−1x − ∑ bixn+1xi
i
i=1 i=0
n ( )
= x n+1
+ ∑ bi−1 + (−1)bi xn+1 + (−1)b0 xn+1 .
i=1
Durch Einsetzen der bi und Rechnung ergibt sich die Behauptung. Die Vorzei-
chenwechsel ergeben sich dabei durch die Vorzeichen in den bi und den Faktoren
−1 vor den Summanden, die xn+1 enthalten. Speziell ist b0 = (−1)n x1 · . . . · xn .
E9. a) Wir betrachten die Punkte P(xP , yP ), Q(xQ , yQ ) und R(xR , yR ) und begin-
nen mit dem Fall P ̸= Q und xP ̸= xQ . Die Gerade PQ sei gegeben durch
g: y = λx+β .
y −y
Ihre Steigung ist gegeben durch λ = xQQ −xPP .
Bei der Berechnung von xR hilft der Satz von Vieta. R liegt sowohl auf der
Gerade g als auch auf der elliptischen Kurve E. Für die Schnittpunkte von Gerade
und Kurve gilt
(λ x + β )2 = x3 + ax + b
⇐⇒ λ 2 x2 + 2λ β x + β 2 = x3 + ax + b
⇐⇒ x3 − λ 2 x2 + (a − 2λ β )x + b − β 2 = 0 .
1.2 Gruppen 115
Nach dem Satz von Vieta folgt −λ 2 = −(xP + xQ + xR ) . Hiermit ergibt sich
xR = λ 2 − xP − xQ . (1.2)
Da P auf g liegt, gilt yP = λ · xP + β . Löst man die Gleichung nach β auf, so
ergibt sich
β = yP − λ xP . (1.3)
Beim Umgang mit R(xR , yR ) ist zu beachten, dass er nicht auf der Gerade g,
sondern auf der Gerade −g : y = −λ x − β liegt. Damit folgt
β = −yR − λ xR . (1.4)
Aus den Gleichungen (1.3) und (1.4) folgt
yR = −yP + λ (xP − xR ) . (1.5)
Die Gleichungen (1.2) und (1.5) ergeben gemeinsam mit der Bedingung von
λ die Behauptung.
Im Fall P = Q handelt es sich bei g um die Tangente an die Kurve im Punkt
P. Wir betrachten o.B.d.A. den Fall, dass P auf dem√ oberen Teil der Kurve liegt,
der gleich dem Graphen der Funktion f mit f (x) = x3 + ax + b ist. Es gilt
√
1 3x2 + a
f ′ (x) = · √ und yP = xP2 + axP + b ,
2 x3 + ax + b
da P auf der Kurve liegt. Damit ergibt sich
3x2 + a
λ= P .
2yP
b) (G2) ergibt sich aus den oben notierten Regeln. Das neutrale Element ist der
Punkt im Unendlichen, was sich in der Regel 3 zeigt. Das inverse Element eines
Punkts P ist gegeben durch −P. Anschaulich bedeutet das in der Kurve, dass
die Gerade durch P und −P parallel zu y-Achse verläuft, daher die Kurve noch
einmal im Unendlichen schneidet.
Dass es sich um eine abelsche Gruppe handelt, zeigt sich an den Gleichungen
(1.2) und (1.5), denn nach (1.2) folgt
xR = λ 2 − xP − xQ = λ 2 − xQ − xP ,
d.h. Gleichung (1.5) orientiert sich nicht an Q.
Die Rechnung zu (G1) wird hier nicht notiert. Es handelt sich lediglich um
eine umfangreiche, jedoch tricklose Rechnung, bei der die Indizes nicht durch-
einander geraten dürfen.
E10. Die Lösung verläuft analog zu Aufgabe E4. Hierbei ist auf die Rechnung
modulo“ zu achten.
”
In Verbindung mit diesen Verfahren lassen sich Nachrichten codieren und deco-
dieren, vgl. [We].
116 1 Grundbegriffe
( 2π i
)
eν n , die die komplexen Nullstellen der Polynome t n − 1 sind, vgl.
ν =0,...,n−1
[Ku1], 11.22 b). Da endliche Körper durch die Anzahl ihrer Elemente bis auf
Isomorphie eindeutig bestimmt sind, vgl. die Lösung zu Aufgabe 1 dieses Ab-
schnittes, nennt man die Nullstellen der Polynome t n −1 über beliebigen Körpern
n-te Einheitswurzeln, vgl. [Ku1] §13.)
Für t1 ,t2 ∈ K gilt
pn ( )
(t1 + t2 ) p = ∑ pi t1i t2p −i .
n n n
i=0
( n) ( n)
Für alle 1 6 i 6 pn − 1 ist jedoch p ein Teiler von pi , also gilt pi = 0 für
1 6 i 6 pn − 1 in einem Körper der Charakteristik p. Daraus folgt
n n n (∗)
(t1 + t2 ) p = t1p + t2p = t1 + t2 ,
wobei an der Stelle (∗) die Tatsache t ∈ K benutzt wurde. Analog gilt
n n n
(t1 − t2 ) p = t1p − t2p = t1 − t2 .
Also bilden die Elemente aus K bezüglich der Addition eine Gruppe mit neu-
tralem Element 0. Die Kommutativität der Addition und der Multiplikation folgt
jeweils aus den entsprechenden Gesetzen in K̃. Damit ist K ein Körper.
Es verbleibt zu zeigen, dass f in K̃ keine mehrfachen Nullstellen besitzt.
Null ist sicherlich keine mehrfache Nullstelle von f . Nehmen wir daher an,
f¯ := t p −1 − 1 hätte eine mehrfache Nullstelle λ ̸= 0 in K̃, also
n
f¯ = (t − λ )k · f˜ mit k > 2 .
Dann würde für die formale Ableitung (die ebenso wie in der Analysis ge-
bildet wird, hier jedoch keinerlei analytische (Eigenschaften besitzt;
) daher der
Name formale Ableitung) f¯′ (t) = (t − λ )k−1 k · f˜ + (t − λ ) · f˜′ von f¯ eben-
falls f¯′ (λ ) = 0 folgen. Da f¯ = t p −1 − 1 irreduzibel in (Z/pZ)[t] und daher
n
ein Polynom minimalen Grades mit Nullstelle λ ist, folgt f¯′ = 0 wegen
deg f¯′ < deg f¯. Für unser Polynom f¯ gilt allerdings
f¯′ = (pn − 1)t p −2 = −t p −2 ̸= 0 ,
n n
mit
ai , c j ∈ K ⊂ K ′ für 0 6 i 6 n und 0 6 j 6 m
sowie
bi ∈ K ′ für 0 6 i 6 l .
Ohne Einschränkung seien an , cm und bl ungleich null. Damit ist auch festge-
legt, dass n = m + l ist. Die Behauptung lautet nun, dass bi ∈ K gilt für alle i.
Da f = q · g ist, gilt an = bl · cm , also bl = camn ∈ K. Desweiteren ist
an−1 = bl−1 · cm + bl · cm−1 , und somit bl−1 = an−1 −c
cm
m−1 ·bl
∈ K. So können wir
uns weiter die verschiedenen bi entlanghangeln“ und nacheinander zeigen, dass
”
sie alle in K liegen.
6. Die Behauptung bedeutet geometrisch, dass ein Polynom höchstens n-ten Gra-
des bereits durch n + 1 verschiedene Punkte eindeutig festgelegt ist.
In der Aufgabenstellung wird ein Tipp gegeben, den wir wie folgt nutzen kön-
nen: Wenn wir die gk mit den angegebenen Eigenschaften konstruiert haben, lässt
sich n
f = ∑ yk · gk
k=0
verifizieren, denn für 0 6 i 6 n gilt
n
f (xi ) = ∑ yk · gk (xi) = yi · 1 = yi .
k=0
Die gk konstruieren wir so:
n
1
gk := · ∏ (t − xi ) .
∏ni=0 (xk − xi ) i=0
i̸=k i̸=k
(∏ bezeichnet dabei das Produkt der bezeichneten Elemente, analog zu ∑ für die
Summe.) Hier geht die Bedingung ein, dass alle xi verschieden sein sollen, denn
andernfalls könnte eine Null im Nenner auftreten. Wir rechnen nach:
gk (xi ) = 0 für i ̸= k und
n
1
gk (xk ) = n · ∏ (xk − xi ) = yk .
∏ i=0 k (x − x i ) i=0
i̸=k i̸=k
Damit gelten die an die gk gestellten Bedingungen. Wie oben schon dargelegt,
können wir damit die Existenz (mindestens) eines f ∈ K[t] nachweisen. Wir sol-
len aber zeigen, dass es genau ein solches Polynom gibt. Es ist ja bis jetzt noch
nicht klar, ob man nicht ein anderes Polynom f auf eine andere Weise konstru-
ieren könnte, das ebenfalls die geforderten Eigenschaften besitzt.
120 1 Grundbegriffe
Nehmen wir also an, es gäbe ein weiteres Polynom g ̸= f vom Grad 6 n mit
g(xi ) = yi für i = 0, . . . , n. Dann ist f − g nicht das Nullpolynom, und es gilt
( f − g)(xi ) = 0 für i = 0, . . . , n, d.h. f − g besitzt mindestens n + 1 Nullstellen.
Da jedoch
deg( f − g) 6 max {deg f , deg g} 6 n
ist, kann f − g ̸= 0 nach Korollar 1 zu 1.3.8 maximal n Nullstellen haben, was
einen Widerspruch bedeutet. Also ist g = f , und damit gibt es genau ein f mit
den gewünschten Voraussetzungen.
7. In C[t] besitzen f und g eindeutige Zerlegungen in Linearfaktoren, weil C ein
algebraisch abgeschlossener Körper ist. Die Voraussetzung bedeutet, dass jeder
Linearfaktor, der in f vorkommt, mit mindestens derselben Vielfachheit auch in g
auftritt. In g können auch noch andere Linearfaktoren auftreten. Das umschreibt
gerade die Tatsache, dass g ein Vielfaches von f ist.
In R[t] gibt es keine analoge Aussage, weil nicht jedes Polynom in Linearfak-
toren zerfällt. Ein mögliches Beispiel lautet f = (t − 1)(t 2 + 1) und g = (t − 1)2 .
8. Die Abbildung e ist nach Aufgabe 6 dieses Kapitels surjektiv. (Achtung: Die
Tatsache, dass der Körper endlich ist, geht entscheidend ein. Für unendliche
Körper ist die Behauptung falsch.)
e ist nicht injektiv, da K[t] unendlich viele Elemente enthält, Abb (K, K) je-
doch nur endlich viele. Ersteres folgt daraus, dass t k ∈ K[t] für alle k ∈ N gilt, die
zweite Behauptung gilt nach Ergänzungsaufgabe E1 zu Abschnitt 1.1.
9. a) Es seien
f= ∑ ai1 ···in · t1i1 · . . . · tnin
06i1 ,...,in 6k
und
g= ∑ j
b j1 ··· jn · t11 · . . . · tnjn
06 j1 ,..., jn 6l
und
g= ∑ bi1 ···in · t1i1 · . . . · tnin .
06i1 ,...,in 6k
Zusammengefasst ergibt sich damit, dass für den Fall n = 2k mit k ∈ N r {0}
das Polynom f keine Nullstelle besitzt. Für n = 2k + 1 mit k ∈ N besitzt f
keine oder genau eine Nullstelle im negativen Bereich.
12. Wir beweisen die Teile a) und b) der Vorzeichenregel für jede Richtung ein-
zeln, um die Schritte deutlich zu machen und auch die kurze mathematische
Schreibweise zu üben.
a) ⇒“: Es sei λi < 0 ∀i = 1, . . . , n. Damit gibt es genau n negative Nullstel-
”
len. Andererseits existieren maximal n Vorzeichenwechsel der Koffizienten von
f− := f (−t). Damit ergibt sich nach der Vorzeichenregel von D ESCARTES
n = N− ( f ) 6 Z( f− ) 6 n.
Dies bedeutet, dass die Anzahl der Vorzeichenwechsel im Tupel (α0 , α1 , . . . ,
αn−1 , 1) gleich null ist, oder anders formuliert, dass αi > 0 ∀i = 0, . . . , n − 1.
⇐“: Wenn alle Koeffizienten α j größer als oder gleich null sind, ergibt sich
” ~
αi > 0 ∀i = 1, . . . , n ⇒ Z(t) = 0 ⇒ N+ ( f ) = 0,
wobei an der Stelle ~ die Vorzeichenregel von D ESCARTES verwendet wurde.
Damit sind alle Nullstellen negativ.
b) ⇒“: Gilt λi > 0 für alle Nullstellen λi , so ergibt sich analog zu dieser Rich-
”
tung aus Teil a)
n = N+ ( f ) 6 Z( f ) 6 n.
Damit sind die Vorzeichen der α j alternierend.
⇐“: Ist das Tupel der α j alternierend, so gilt
”
N− ( f ) 6 Z( f− ) = 0, jedoch N+ ( f ) 6 Z( f ) = n.
Da jedoch die Anzahl der Nullstellen (mit Vielfachheit gezählt) gleich n ist, er-
gibt sich
n 6 N+ ( f ) + N− ( f ) = N+ ( f ) 6 n ⇒ N+ ( f ) = n,
d.h. alle Nullstellen λ1 , . . . , λn sind positiv.
Damit ist die Vorzeichenregel bewiesen.
Lösungen der Ergänzungsaufgaben
E1. a) Zunächst zeigen wir, dass R[t] eine abelsche Gruppe bzgl. der Addition
ist, d.h. die Eigenschaft (R1). Die Gültigkeit des Assoziativgesetzes ist durch
eine Rechnung zu bestätigen. Das neutrale Element des Polynomrings ist gleich
dem neutralen Element des Rings R, in Zeichen 0R[t] = 0R . Das inverse Element
zu einem Element f = a0 + a1t + . . . + ant n ∈ R[t] ist gegeben durch
− f = −a0 − a1t − . . . − ant n .
Ist zusätzlich ein g = b0 + b1t + . . . + bmt m ∈ R[t] gegeben, so gilt
f · g = c0 + c1t + . . . + cn+mt n+m mit ck = ∑ ai b j . ~
i+ j=k
124 1 Grundbegriffe
E3. a) Zu zeigen ist, dass R× multiplikativ abgeschlossen ist. Dies trifft zu, denn
für a1 , a2 ∈ R× existieren b1 , b2 ∈ R× mit
a1 · b1 = b1 · a1 = a2 · b2 = b2 · a2 = 1 .
Die Gültigkeit des Assoziativgesetzes überträgt sich von R auf R× . Für a1 · a2
folgt mit Hilfe des Assoziativgesetzes in R
(a1 · a2 ) · (b2 · b1 ) = a1 · (a2 · b2 ) · b1 = a1 · b1 = 1 .
| {z }
=1
Damit liegt das Produkt von a1 und a2 in R. Analog lassen sich die anderen Fälle
betrachten.
Es gilt 1 ∈ R× . Die Existenz eines Inversen für Elemente in R× ist erfüllt, da
es sich um Einheiten handelt.
b) Zu zeigen ist für einen kommutativen Ring R:
R× = R r {0} ⇐⇒ R ist Körper
!
Dies deckt sich genau mit einem der Axiome für Körper, vgl. [Fi1], 1.3.3, Be-
dingung (K2).
Für den Fall, dass die Multiplikation nicht das Kommutativgesetz erfüllt, ist
auch das Distributivgesetz lediglich in bestimmter Reihenfolge gültig. Verändert
man jedoch das Distributivgesetz dahingehend, dass für a, b, c ∈ G beliebig
a · (b + c) = a · b + a · c als auch (a + b) · c = a · c + b · c ,
so bezeichnet man die Struktur als Schiefkörper.
E4. a) Seien a1 , a2 , b1 , b2 ∈ Z. Damit gilt a1 + i · b1 ∈ Z[i] und a2 + i · b2 ∈ Z[i].
Summe und Produkt lauten
(a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) und
(a1 + ib1 )(a2 + ib2 ) = (a1 a2 − b1 b2 ) + i(a1 b2 + a2 b1 ) .
Damit lassen sich die Rechenregeln der ganzen Zahlen auf Z[i] übertragen.
b) Es seien z1 = a + ib und
( z2 = c + id. Durch
) eine
( Rechnung ergibt sich)
δ (z1 · z2 ) = δ (a + ib) · (c + id) = δ (ac − bd) + i(ad + bc)
= (ac − bd)2 + (ad + bc)2
= (ac)2 + (bd)2 + (ad)2 + (bc)2 = (a2 + b2 )(c2 + d 2 )
= δ (a + ib) · δ (c + id) = δ (z1 ) · δ (z2 ) ,
was zu zeigen war.
!
c) Behauptung: Es ist Z[i]× = {±1, ±i}.
⊂“: Es sei z ∈ Z[i]× . Dann existiert ein z̃ ∈ Z[i] mit z · z̃ = 1. Mit der Norm-
”
abbildung folgt dann
1 = δ (1) = δ (z · z̃) = δ (z) · δ (z̃) .
126 1 Grundbegriffe
Der Bildraum von δ besteht aus den natürlichen Zahlen ohne 0, womit
δ (z) = δ (z̃) = 1 folgt, somit z ∈ {±1, ±i}.
⊃“ folgt aus | ± 1| = | ± i| = 1.
”
E5. Wie sich an der Lösung von Aufgabe 6 a) in Abschnitt 1.2 zeigt, muss R×
bei einer Anzahl von fünf Elementen zyklisch sein, d.h. es gibt ein g ∈ R mit
R× = {1, g, g2 , g3 , g4 }. Die folgende Tabelle zeigt die Verknüpfung:
· 1 g g 2 g3 g4
1 1 g g 2 g3 g4
g g g 2 g3 g4 1
g2 g2 g3 g4 1 g
g3 g3 g4 1 g g2
g4 g4 1 g g2 g3 .
Es gilt (−1)2 = 1, daher ist −1 eine Einheit. In der Diagonale der Tabelle zeigt
sich andererseits, dass lediglich 12 = 1 gilt, und es folgt
−1 = 1 ⇒ 1 + 1 = 0 ⇐⇒ a + a = 0 für alle a ∈ R× .
Wir werden zeigen, dass 1 + g2 + g3 ∈ R× liegt. Sein inverses Element ist 1 +
g + g4 , denn es gilt
(1 + g2 + g3 )(1 + g + g4 ) = 1 + g + g4 + g2 + g3 (1.6)
+g + g3 + g4 + g2 (1.7)
= 1 + (g + g) + (g2 + g2 ) (1.8)
| {z } | {z }
=0 =0
+ (g3 + g3 ) + (g4 + g4 ) (1.9)
| {z } | {z }
=0 =0
= 1. (1.10)
Damit folgt 1+g2 +g3 ∈ R× = {1, g, g2 , g3 , g4 }. Wir zeigen jetzt, dass 1+g2 +g3
nicht gleich einem dieser Elemente in R× sein kann. Damit haben wir einen
Widerspruch dazu, dass 1 + g2 + g3 ∈ R× ist.
1.4 Vektorräume 127
Es ergibt sich in den folgenden Gleichungen (mit der Anwendung der Ergeb-
nisse der Gleichungen (1.6) bis (1.10) an den Stellen ~ sowie 1 = −1):
1. 1 + g2 + g3 = 1 ⇐⇒ g2 + g3 = 0
⇐⇒ g2 (1 + g) = 0
⇐⇒ g2 = 0 ∨ 1 + g = 0
⇐⇒ g = 0 ∨ g = 1 ; Widerspruch
~
2. 1 + g2 + g3 = g ⇐⇒ 1 + g + g4 = g4 (da g · g4 = 1)
⇐⇒ g = 1 ; Widerspruch
3. 1 + g2 + g3 = g2 ⇐⇒ g3 = 1 ; Widerspruch
4. 1 + g2 + g3 = g3 ⇐⇒ 1 + g2 = 0
⇐⇒ g2 = 1 ; Widerspruch
~
2
5. 1 + g + g = g3 4 ⇐⇒ 1 + g + g4 = g ( da g · g4 = 1)
⇐⇒ g4 = 1 ; Widerspruch
Dies bedeutet, dass 1 + g2 + g3 nicht gleich einem der Elemente aus R× sein
kann, womit es keinen Ring mit fünf Elementen geben kann.
1.4 Vektorräume
1. a) Es ist
W := {(x1 , x2 , x3 ) ∈ R : x1 = x2 = 2x3 } ⊂ R3 .
Zu zeigen sind die Eigenschaften UV1, UV2 und UV3 aus 1.4.2.
UV1: (0, 0, 0) ∈ W , also W ̸= 0. /
UV2: Es seien v = (v1 , v2 , v3 ) ∈ W und w = (w1 , w2 , w3 ) ∈ W . Dann gilt
v = (v1 , v1 , 12 v1 ) und w = (w1 , w1 , 21 w1 ) ,
also
v + w = (v1 + w1 , v1 + w1 , 12 (v1 + w1 )) ∈ W .
UV3: Es seien v = (v1 , v1 , v3 ) ∈ W und λ ∈ K. Es ist
v = (v1 , v1 , 12 v1 ) ,
also
λ v = (λ v1 , λ v1 , 12 λ v1 ) ∈ W .
Also ist W ein Untervektorraum
{ von R3 . }
b) Nun ist W := (x1 , x2 ) ∈ R : x12 + x24 = 0 ⊂ R2 . Für alle x ∈ Rr0 gilt x2 > 0
2
und x4 > 0, woraus folgt, dass für alle (x1 , x2 ) ∈ R2 r (0, 0) gerade x12 + x24 > 0
gilt. Also ist W = {(0, 0)}, und die Bedingungen UV1 und UV2 sind trivialer-
weise erfüllt. { }
c) Die Menge W := (µ + λ , λ 2 ) ∈ R2 : λ , µ ∈ R ⊂ R2 ist kein Untervektor-
raum. Zwar gelten UV1 und UV2, jedoch ist UV3 nicht erfüllt. Das sieht man
wie folgt: Für alle λ ∈ R ist λ 2 > 0. Wähle λ = 1, µ = 0, α = −1. Dann ist
α · (µ + λ , λ 2 ) = (−1) · (1, 1) = (−1, −1) ∈
/ W.
128 1 Grundbegriffe
k̃ l˜
= ∑ λi cos(nix) + ∑ µ j sin(m j x) ∈ W .
i=1 j=1
Analog folgt die Eigenschaft UV3.
5. Wir zeigen zunächst, dass die Inklusionen ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ der entsprechenden
Mengen gelten. Dabei werden an einigen Stellen Grenzwertsätze für reelle Zah-
lenfolgen benutzt, die, sofern sie nicht aus Schule oder Studium bekannt sind, in
[Fo1], §4 nachgesehen werden können.
Um die Inklusion ℓ ⊂ ℓ∞ zu zeigen, wählen wir ein (xi )i∈N ∈ ℓ mit Grenzwert
g, d.h. zu jedem ε > 0 gibt es ein N(ε ) ∈ N mit |xi − g| < ε für alle i > N(ε ).
130 1 Grundbegriffe
Speziell für ε = 1 gilt |xi − g| < 1 für alle i > N(1), woraus
|xi | < |g| + 1 für alle i > N(1)
folgt. Wählen wir
( )
M := max |x1 |, . . . , |xN(1)−1 |, |g| + 1 ,
so gilt |xi | 6 M für alle i ∈ N, d.h. (xi )i∈N ist beschränkt.
Es sei nun (xi )i∈N ∈ ℓ2 . Dann existiert ein c ∈ R mit
∞
∑ |xi|2 = c .
i=0
Wegen n n−1
|xn |2 = xn2 = ∑ xi2 − ∑ xi2
i=0 i=0
für beliebiges n ∈ N folgt ( )
n n−1 n n−1
lim x2
n→∞ i
=
n→∞
lim ∑ xi2 − ∑ xi2 = lim
n→∞
lim ∑ xi2
∑ xi2 − n→∞
i=0 i=0 i=0 i=0
= c−c = 0.
Aus limn→∞ xn2 = 0 folgt jedoch sofort limn→∞ xi = 0, d.h. (xi )i∈N ∈ ℓ.
Nun kommen wir zur Inklusion ℓ1 ⊂ ℓ2 . Dazu wählen wir ein (xi )i∈N mit
∞
c := ∑ |xi | ,
i=0
woraus folgt ( )2
∞
2
c = ∑ |xi| .
i=0
Für beliebiges n ∈ N gilt
( )2
n n
∑ |xi| − ∑ |xi |2 = ∑ 2|xi | · |x j | > 0 ,
i=0 i=0 i̸= j
da jeder einzelne Summand auf der rechten Seite größer oder gleich 0 ist. Um-
geformt ergibt dies ( )2
n n
∑ |xi| > ∑ |xi |2
i=0 i=0
für alle n ∈ N, woraus folgt
( )2
n n ∞
2
c = lim
n→∞
∑ |xi| > lim
n→∞
∑ |xi|2 = ∑ |xi|2 .
i=0 i=0 i=0
∞
Insbesondere ist ∑ |xi < ∞ und (xi )i∈N
|2 ∈ ℓ2 .
i=0
1.4 Vektorräume 131
Es sind nun für unsere Mengen die Eigenschaften UV1, UV2 und UV3 zu
zeigen. Für (xi )i∈N mit xi = 0 für alle i ist
(xi )i∈N ∈ ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ ,
also sind alle Mengen nicht leer.
Die restlichen Eigenschaften müssen für alle Mengen einzeln gezeigt werden.
Es reicht nicht, die Eigenschaften für eine Obermenge zu zeigen, da überhaupt
nicht klar ist, ob man bei der Addition von Vektoren oder der skalaren Multipli-
kation nicht aus der Menge fällt“; genau das soll ja letztlich erst gezeigt werden.
”
Für eine beschränkte Folge (xi )i∈N mit Schranke m ∈ R ist λ m eine Schranke
der Folge (λ xi )i∈N , und sind zwei beschränkte Folgen (xi ) und (yi ) mit Schran-
ken m und n gegeben, so ist für alle i ∈ N
|xi + yi | 6 |xi | + |yi | 6 m + n ,
also ist (xi + yi )i∈N beschränkt. Damit ist gezeigt, dass ℓ∞ ein Untervektorraum
von Abb(N, R) ist.
Aus den Grenzwertsätzen folgt, dass ℓ ein Untervektorraum von ℓ∞ ist.
Für (xi )i∈N ∈ ℓ2 und λ ∈ R gilt
∞ ∞
∑ |λ xi|2 = λ 2 · ∑ |xi|2 < ∞ .
i=0 i=0
Sind (xi ), (yi ) ∈ ℓ2 gegeben, so gilt für alle i ∈ N
( )
|xi | · |yi | 6 max |xi |2 , |yi |2 6 |xi |2 + |yi |2 . (∗)
Damit folgt
∞ ∞ ( )
∑ |xi + yi|2 6 ∑ |xi |2 + |yi |2 + 2|xi | · |yi |
i=0 i=0
(∗) ∞( )
6 3 ∑ |xi |2 + |yi |2 < ∞ ,
i=0
also ist (xi + yi )i∈N ∈ ℓ2 .
Zum Schluss folgt für (xi ), (yi ) ∈ ℓ1 und λ ∈ R
∞ ∞
∑ |λ · xi| = |λ | · ∑ |xi| < ∞
i=0 i=0
und ∞ ∞
∑ |xi + yi| 6 ∑ (|xi| + |yi|) < ∞ .
i=0 i=0
Damit ist alles gezeigt.
132 1 Grundbegriffe
Zerlegungen der Funktionen sin(nx) und cos(mx) finden, vgl. dazu [Fo3], §12
und Aufgabe 7 zu Abschnitt 5.4.
9. Das zur Aufgabe gehörige lineare Gleichungssystem führt auf die Matrix
( )
1 3 4
3 t 11 .
−1 −4 0
Diese Matrix formen wir mittels elementarer Zeilenumformungen um zu
( ) ( )
1 3 4 1 3 4
; 0 t − 9 −1 ; 0 4t − 37 0 .
0 −1 4 0 −1 4
Die lineare Abhängigkeit der drei Vektoren ist gleichbedeutend damit, dass die
zweite Zeile der Matrix verschwindet, also 4t − 37 = 0 oder t = 37
4.
48 v1 + 48 v2 − 16 v3 . b) w = −v1 + v2 + v3 .
35 37 1
10. a) w =
c) Ein Beispiel ist gegeben durch drei verschiedene Geraden in R2 , die sich im
Ursprung schneiden, dargestellt in Bild 1.3. In diesem Fall gilt
(V1 ∩V3 ) + (V2 ∩V3 ) = {0} + {0} = {0},
jedoch
(V1 +V2 ) ∩V3 = R2 ∩V3 = V3 .
Bild 1.3
eine Basis. Dazu ist zu zeigen, dass diese Polynome ber R linear unabhängig
sind, und dass V = span B gilt. Die zweite Aussage folgt aus
t 2 + t + 1 = 1 · (t 2 + t) + 1 · (t 2 + 1) − 1 · t 2 .
Die Aussage t 7 + t 5 ∈ / span(t 2 ,t 2 + t,t 2 + 1) folgt durch Betrachtung der Gra-
de der Polynome. Bleibt also die lineare Unabhängigkeit der drei Polynome t 2 ,
t 2 + t, und t 2 + 1 zu zeigen. Seien α , β , γ ∈ R gegeben mit
α · t 2 + β · (t 2 + t) + γ · (t 2 + 1) = 0 .
Zusammenfassen nach Potenzen von t ergibt
(α + β + γ ) · t 2 + β · t + γ · 1 = 0 ,
woraus unmittelbar α = β = γ = 0 folgt.
d) Eine Basis von
V := { f ∈ Abb(R, R) : f (x) = 0 bis auf endlich viele x ∈ R}
ist gegeben durch
( fr ∈ V : fr (x) = δxr ) ,
wobei δ das Kronecker-Symbol {
1 für x = r,
δxr :=
0 sonst.
ist. Die lineare Unabhängigkeit der Funktionen fr ist unmittelbar klar. Ist an-
dererseits f ∈ V gegeben, so existieren x1 , . . . , xn ∈ R, so dass ai := f (xi ) ̸= 0
für alle i = 1, . . . , n und f (x) = 0 für alle x ∈ R r {x1 , . . . , xn }. Dann aber gilt
n
f = ∑ ai · fxi .
i=1
3. Zunächst zeigen wir, dass die Menge W := K[t1 , . . . ,tn ](d) der homogenen Po-
lynome vom Grad d in n Veränderlichen vereinigt mit dem Nullpolynom einen
Untervektorraum des Polynomringes über K in n Veränderlichen bilden. Wegen
0 ∈ W ist W ̸= 0. / Dass für f , g ∈ W auch f + g ∈ W gilt, haben wir in Aufgabe 9
zu Abschnitt 1.3 gezeigt.
Die Aussage für die Multiplikation mit λ ∈ K ist klar; aus den Koeffizienten
ai1 ···in von f = ∑ ai1 ···in t1i1 · . . . · tnin werden Koeffizienten λ ai1 ···in von λ f .
06i1 ,...,in 6k
Nach den obigen Ausführungen und ähnlichen Überlegungen wie in der Lö-
sung zu Aufgabe 2 ist klar, dass die Polynome t1d1 · . . . ·(tndn mit )
d1 + . . . + dn = d
eine Basis von W bilden. Wir behaupten, dass es davon n+d−1 d Stück gibt. Der
Beweis wird per Induktion über n geführt. ( )
Für n = 1 ist W = span (t d ), also ist dimW = 1, was mit 1+d−1
d = 1 überein-
stimmt.
136 1 Grundbegriffe
Für den Induktionschritt nehmen wir an, die Aussage sei für n − 1 Variablen
richtig. Da der Grad von t1d1 · (
. . . · tndn gleich )
d ist, gilt
d
deg t1d1 · . . . · tn−1
n−1
= d − dn .
Aufgrund der Induktionsannahme gilt ( )
n − 1 + d − dn − 1
dimK[t1 , . . . ,tn−1 ](d−dn ) = .
d − dn
Für jedes dn = 0, . . . , d erhält man so die Dimension des Untervektorraumes von
W , der aus homogenen Polynomen mit dem Exponenten dn von tn besteht.
Daraus folgt
d
dimK[t1 , . . . ,tn ](d) = ∑ dimK[t1, . . . ,tn−1](d−dn)
dn =0
d ( ) d ( )
n − 2 + d − dn n−2+k
= ∑ d − dn
= ∑ k
dn =0
( ) k=0
(∗) n+d −1
= .
d
Es bleibt
( der) Beweis(von (∗);
) er wird durch Induktion über d geführt. Für d = 0
gilt n−1+0 0 = 1 = n−1
0 . Für den Induktionsschritt betrachtet man
d ( ) d−1 ( ) ( )
n−2+k n−2+k n−2+d
∑ k
= ∑ k
+
d
k=0 (
k=0 ) ( )
n−2+d n−2+d
= + ,
d −1 d
wobei im letzten Schritt die Induktionsannahme benutzt wurde. Aufgrund der
Beziehungen im ( Pascalschen)Dreieck
( ) (§1) gilt )
(vgl. [Fo1],
n−2+d n−2+d n−1+d
+ = .
d −1 d d
4. Wir zeigen zunächst, dass C endlich erzeugt über R ist. Das folgt leicht aus
Abschnitt 1.3.4, denn C = R × R, und {(1, 0), (0, 1)} ist endliches Erzeugenden-
system, da (a, b) = a · (1, 0) + b · (0, 1) für alle (a, b) ∈ C gilt.
Um einzusehen, dass R nicht endlich erzeugt über Q ist, bemerken wir,
dass Q als Menge abzählbar ist. Wäre R endlich erzeugt über Q, so gäbe es
r1 , . . . , rn ∈ R, so dass für alle r ∈ R eine Darstellung
n
r = ∑ qi ri mit qi ∈ Q
i=1
existiert. Damit wäre R abzählbar, was nach Aufgabe 5 zu Abschnitt 1.1 nicht
der Fall ist.
1.5 Basis und Dimension 137
Mit dem gleichen Argument kann man auch zeigen, dass R nicht abzählbar
erzeugt über Q ist.
( ) ( )
5. Wir beginnen damit, nachzuweisen, dass die (vi , 0) i∈I ∪ (0, w j ) j∈J ein Er-
zeugendensystem sind. Dazu sei (v, w) ∈ V × W gegeben. Wegen v ∈ V gilt
v = ∑′i∈I ai vi , wobei der Strich am Summenzeichen andeuten soll, dass nur
endlich viele der formal unendlich vielen aufgeschriebenen Summanden un-
gleich null sind (vgl. [Fi1], 6.3.2). Wegen w ∈ W gibt es eine Darstellung
w = ∑′j∈J b j w j . Aufgrund der Definitionen der Verknüpfungen in V × W folgt
damit
′ ′
(v, w) = (v, 0) + (0, w) = (∑ ai vi , 0) + (0, ∑ b j w j )
i∈I j∈J
′ ′
= ∑ ai(vi, 0) + ∑ b j (0, w j ) ,
i∈I ( ) j∈J ( )
also wird V ×W von den (vi , 0) i∈I ∪ (0, w j ) j∈J erzeugt.
Die lineare Unabhängigkeit ist wie folgt einzusehen; sei
′ ′
∑ ai(vi, 0) + ∑ b j (0, w j ) = 0
i∈I j∈J
′ ′
⇔ (∑ ai vi , 0) + (0, ∑ b j w j ) = 0
i∈I j∈J
′ ′
⇔ (∑ ai vi , ∑ b j w j ) = 0
i∈I j∈J
′ ′
⇔ ∑ aivi = 0 und ∑ b jw j = 0 .
i∈I j∈J
Da (vi )i∈I eine Basis von V und (w j ) j∈J eine Basis von W ist, folgt ai = 0 für
alle i und b j = 0 für alle j.
6. Die Dimension des von den fünf Vektoren a, b, c, d, e aufgespannten Raumes
ist kleiner oder gleich fünf. Nach dem Austauschsatz in 1.5.4 ist die Dimension
eines Vektorraumes die maximale Anzahl linear unabhängiger Vektoren, in un-
serem Fall höchstens fünf. Also sind die sechs Vektoren v1 , . . . v6 in jedem Falle
linear abhängig.
7. Die Terminologie dieser Aufgabe kommt aus der algebraischen Geometrie,
wo die h(V ) für Primideale in kommutativen Ringen definiert wird und Höhe
heißt (vgl. [Ku2], Kapitel VI, Definition 1.4). Die hier vorgestellte Höhe eines
Vektorraumes ist sozusagen der triviale Fall.
Wir zeigen dimV 6 h(V ) sowie dimV > h(V ), daraus folgt dann die Gleich-
heit.
138 1 Grundbegriffe
Sei m := dimV und {v1 , . . . , vm } eine Basis von V . Setzt man V0 := {0} und
Vi := span(v1 , . . . , vi ) für 1 6 i 6 m, so ist
V0 $ V1 $ . . . $ Vm
eine aufsteigende Kette von Untervektorräumen der Länge dimV , also gilt
dimV 6 h(V ).
Sei andererseits
V0 $ V1 $ . . . $ Vn−1 $ Vn
eine aufsteigende Kette von Untervektorräumen. Für jedes 0 6 i 6 n − 1 ist
Vi $ Vi+1 ein Untervektorraum. Aus Korollar 3 in 1.5.5 folgt daher, dass
dimVi < dimVi+1 für alle 0 6 i 6 n − 1 gilt. Wegen 0 6 dimV0 folgt daraus
i 6 dimVi für alle 0 6 i 6 n . (∗)
Andererseits ist dimVn 6 m, daraus folgt nach Korollar 3
dimVn−i 6 m − i für alle 0 6 i 6 n . (∗∗)
Aus (∗) und (∗∗) ergibt sich
n − i 6 dimVn−i 6 m − i und damit n 6 m.
Da dies für jede mögliche Kette gilt, folgt h(V ) 6 dimV .
8. a) Zu zeigen ist W = spanR ( fk )k∈N . Wir sollten bedenken, dass nicht die linea-
re Hülle über einen Körper, sondern über den Ring der auf R stetigen Funktionen
gebildet wird. Nach 1.6.5 ist W also ein Modul über R. Wir zeigen beide Inklu-
sionen.
Für f = ∑ni=1 f (i) fki ∈ spanR ( fk )k∈N mit f (i) ∈ R (wobei die Indizes zur Un-
terscheidung oben geschrieben wurden) sei k := maxi=1,...,n {ki }. Es gilt dann für
alle x > k n n
f (x) = ∑ f (i) (x) · fki (x) = ∑ f (i) (x) · 0 = 0 .
i=1 i=1
Für die Inklusion W ⊂ spanR ( fk )k∈N genügt es zu zeigen, dass für alle k ∈ N die
Funktion {
0 für x > k,
gk (x) = k − x für k − 1 6 x 6 k,
1 für x 6 k − 1
in spanR ( fk )k∈N liegt. Da für ein f ∈ W ein ρ ∈ R existiert mit f (x) = 0 für alle
x > ρ , wähle ein beliebiges k ∈ N mit k − 1 > ρ , und es gilt
f = f · gk ∈ spanR ( fk )k∈N .
gk ∈ spanR ( fk )k∈N ist einfach zu sehen, denn es gilt gk (x) = fk (x) − fk−1 (x).
1.5 Basis und Dimension 139
b) Wir nehmen das Gegenteil an, also W = spanR (g1 , . . . , gn ) mit gi (x) = 0 für
alle x > ρi . Ohne Beschränkung der Allgemeinheit sei ρn = max(ρi ). Wähle ein
ρ ∈ N mit ρ > ρn . Wegen fρ ∈ W gibt es eine Darstellung fρ = ∑ni=1 f (i) gi mit
f (i) ∈ R. Es gilt dann für alle x ∈ R mit ρ > x > ρn
n n
0 ̸= ρ − x = fρ (x) = ∑ f (i) (x) · gi (x) = ∑ f (i) (x) · 0 = 0 ,
i=1 i=1
ein Widerspruch. Also ist W über R nicht endlich erzeugt.
Andererseits ist R ein Ring mit Einselement f (x) = 1 für alle x ∈ R, somit
wird R über R durch das Einselement erzeugt.
c) Die Familie ( fk )k∈N ist linear abhängig, da W ⊂ R gilt und zum Beispiel
f1 · f0 + (− f0 ) · f1 = 0 in spanR ( fk )k∈N mit f1 , − f0 ̸= 0.
9. Die Inklusion 2Z+3Z ⊂ Z ist klar, da 2Z ⊂ Z und 3Z ⊂ Z gilt. Für die Umkeh-
rung genügt es zu zeigen, dass 1 ∈ 2Z + 3Z. Das jedoch folgt aus
1 = 3 + (−1) · 2.
Es ist 2Z = spanZ (2) $ Z und 3Z = span Z (3) $ Z, aber span Z (2, 3) = Z.
(2,3) ist also unverkürzbares Erzeugendensystem der Länge 2. Andererseits ist
span Z (1) = Z, also (1) ein unverkürzbares Erzeugendensystem der Länge 1.
10. Ist k die Anzahl der Elemente in K und dimK V = n, so ist die Anzahl der
Elemente in V gleich kn . Um dies einzusehen, betrachten wir einen beliebigen
Vektor v ∈ V . Ist v1 , . . . , vn eine Basis von V , so existiert für jedes v ∈ V eine
eindeutige Darstellung
v = λ1 · v1 + . . . + λn · vn
mit λi ∈ K für alle i = 1, . . . , n. Nun definieren wir uns eine Abbildung
φ : V → K n , v 7→ (λ1 , . . . , λn ) .
φ ist wohldefiniert, da die Darstellung für jedes v ∈ V eindeutig ist. Ferner ist φ
bijektiv (φ ist ein Isomorphismus von Vektorräumen, siehe 2.1.2), also besitzt V
genauso viele Elemente wie K n ; dies sind jedoch genau kn .
11.∗ a) Es sei P der Schnitt aller Unterkörper von K. Man sieht einfach ein,
dass P ein Unterkörper von K ist. P ist daher der eindeutig bestimmte kleinste
Unterkörper von K; er heißt Primkörper von K.
P enthält als Unterkörper von K insbesondere die Elemente 0 und 1. Daher
enthält P auch die Elemente ñ, die definiert sind durch
ñ = 1| + .{z . . + 1} , falls n > 0 ,
n−mal
0̃ = 0 ,
f ,
ñ = −(−n) falls n < 0 .
140 1 Grundbegriffe
Bild 1.4
2. Ist (v, w) ∈ V ×W , so gilt (v, w) = (v, 0)+(0, w), daraus folgt DS1. Für (v, w) ∈
(V × {0}) ∩ ({0} ×W ) ist v = 0 und w = 0, also (v, w) = (0, 0).
1.6 Summen von Vektorräumen∗ 143
n haben kann, ist schnell einzusehen, handelt es sich bei U2 doch sicherlich nicht
um den ganzen Rn . Dann muss dimU2 = n − 1 sein, was wir beweisen wollten.
Die Tatsache, dass die vi , 1 6 i 6 n − 1, ein Erzeugendensystem von U2 bilden,
kann aber auch nachgerechnet werden: Es sei v = (r1 , . . . , rn ) ∈ U2 gewählt, d.h.
∑ni=1 ri = 0. Indem im zweiten Eintrag des Vektors r1 addiert und subtrahiert
wird, ändert sich der Gesamtwert des Vektors nicht, und es ergibt sich
v = (r1 , r2 , . . . , rn ) = (r1 , −r1 + r1 + r2 , r3 , . . . , rn )
= (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , r3 , . . . , rn ) .
Wiederholt man diesen Schritt an der nächsten Stelle, so erhält man
v = (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , −r1 − r2 , 0, . . . , 0)
+(0, 0, r1 + r2 + r3 , 0, . . . , 0) .
Wird dieser Schritt insgesamt (n − 1)-mal durchgeführt (was genaugenommen
eine Induktion ist), so folgt
v = (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , −r1 − r2 , 0, . . . , 0) + . . .
+(0, . . . , 0, r1 + . . . + rn−1 , −r1 − . . . − rn−1 )
+(0, . . . , 0, r1 + . . . + rn )
1 2 n−1
= ∑ rr v1 + ∑ riv2 + . . . + ∑ rivn−1
i=1 i=1 i=1
n−1 j
= ∑ ∑ riv j .
j=1 i=1
Da v ∈ U2 gilt, ist der letzte Summand gleich dem Nullvektor, und durch Heraus-
ziehen der Skalare aus den Vektoren ist somit gezeigt, dass der beliebig gewählte
Vektor v in der linearen Hülle der Vektoren v1 , . . . , vn−1 liegt, diese Vektoren so-
mit ein Erzeugendensystem bilden.
Es gilt U1 ∩U2 = (0, . . . , 0), und hiermit folgt dimU1 ∩U2 = 0.
Mit Hilfe der Dimensionsformel für Summen ergibt sich
dim(U1 +U2 ) = dimU1 + dimU2 − dim(U1 ∩U2 ) = 1 + n − 1 − 0 = n .
Dies kann man sich auch wieder durch eine Matrix bestätigen, die aus der oben
aufgeführten entsteht, indem eine weitere Spalte, die nur aus Einsen besteht,
angehängt wird. Diese neue Matrix hat Rang n, das entspricht der Dimension
von U1 +U2 .
Kapitel 2
Lineare Abbildungen
aber
λ · F(z) = i · F(i) = i · (−i) = 1 .
Beschränkt man sich jedoch auf die R-Linearität, so gilt für alle λ1 , λ2 ∈ R und
alle z1 = x1 + iy1 , z2 = x2 + iy2 ∈ C
Mit iii) ist ii) leicht zu lösen, denn R[t] ⊂ D(R, R) ist ein Untervektorraum, und
damit gilt ( )
Fix F|R[t] = Fix (F) ∩ R[t] = 0 · exp = 0 .
4. Die Assoziativität ist klar. Neutrales Element ist F = idV . Da für jedes v ∈ V
die Menge F −1 (v) aus genau einem Element besteht, definiert man
F −1 : V → V , v 7→ F −1 (v) ,
wobei die Abbildung ebenfalls mit F −1 bezeichnet wird. F −1 ist die inverse
Abbildung zu F. Damit ist Aut (V ) eine Gruppe.
5. Es ist F k (v) ̸= 0 für alle k < n, da sonst F(F l (v)) = 0 für alle l > k wäre im
Widerspruch zu F n (v) ̸= 0. Sei
λ0 v + λ1 F(v) + . . . + λn F n (v) = 0 .
Dann folgt
F(λ0 v + . . . + λn F n (v)) = λ0 F(v) + . . . + λn−1 F n (v) + λn F n+1 (v) = 0 .
| {z }
=0
Wendet man F weitere (n − 1)-mal an, so erhält man ein Gleichungssystem
λ0 v + ... ... ... +λn F n (v) = 0
λ0 F(v) + ... ... +λn−1 F n (v) = 0
λ0 F 2 (v) + . . . +λn−2 F n (v) = 0
.. ..
. .
λ0 F n (v) = 0.
Aus der letzten Gleichung folgt λ0 = 0 wegen F n (v) ̸= 0. Jeweils durch einsetzen
in die darüberstehende Gleichung folgt daraus sukzessive λi = 0 für alle i =
0, . . . , n. Ein Endomorphismus F, für den ein n ∈ N r 0 existiert mit F n = 0,
heißt nilpotent, vgl. Abschnitt 4.5.7.
6. F ist surjektiv, also gilt F(U1 ) + F(U2 ) = W . Ist w ∈ F(U1 ) ∩ F(U2 ) gege-
ben, so gilt w ∈ F(U1 ), also gibt es ein v1 ∈ U1 mit w = F(v1 ). Analog gibt es
wegen w ∈ F(U2 ) ein v2 ∈ U2 mit w = F(v2 ). Aus der Injektivität von F folgt
v1 = v2 =: v und v ∈ U1 ∩U2 = {0}, also v = 0. Wegen der Linearität von F gilt
F(v) = F(0) = 0 = w und damit F(U1 ) ∩ F(U2 ) = {0}. Insgesamt ist
W = F(U1 ) ⊕ F(U2 ).
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ 149
Nach Satz 2.2.4 ist dim Ker F = 1. Wenn man nicht das zugehörige lineare
Gleichungssystem lösen möchte, genügt es, einen Vektor v ̸= 0 mit
F(v) = 0 zu finden. Der Vektor v = t (1, −2, 1) erfüllt diese Eigenschaft, also
gilt Ker F = span (v).
ii) Für die Abbildung
1 1 0 1 0
0 1 1 0 0
F : R5 → R4 , x 7→ ·x = B·x,
1 1 0 0 1
0 1 1 0 0
ist ebenfalls das Bild von F gegeben durch die lineare Hülle der Spaltenvektoren
von B, eine Basis ist gegeben durch
( )
B := t (1, 0, 1, 0), t (0, 1, 0, 1), t (1, 0, 0, 0) .
Wiederum nach Satz 2.2.4 gilt dim Ker F = 2. Um eine Basis zu finden, lösen
wir das zur Matrix B gehörige homogene lineare Gleichungssystem. Da durch
elementare Zeilenumformungen nach Satz 0.4.6 die Lösungsmenge des Glei-
chungssystems nicht verändert wird, rechnen wir
1 1 0 1 0 1 1 0 1 0
0 1 1 0 0 0 1 1 0 0
1 1 0 0 1 ; 0 0 0 −1 1 .
0 1 1 0 0 0 0 0 0 0
Wir erhalten daraus die Basis
(t )
(1, −1, 1, 0, 0), t ( − 1, 0, 0, 1, 1) von Ker F .
Bild 2.1
Um die Surjektivität von φ zu zeigen, wählen wir ein F̄ ∈ Hom (V /U,W ) und
definieren F := F̄ ◦ ρ . Für ein u ∈ U gilt u ∼U 0, und damit folgt
F(u) = F̄ ◦ ρ (u) = F̄(u +U) = F̄(0 +U) = 0 ,
d.h. F|U = 0 und F̄ = φ (F). Also ist φ surjektiv.
2. Wer die zehnte Auflage der Linearen Algebra hat, kann diese Aufgabe sehr
schnell beantworten; hier hat sich nämlich der Fehlerteufel eingeschlichen: Die
gesuchte Legierung soll lediglich 50% Silber enthalten. Unter diesen Umständen
ist die Aufgabe nicht ganz so einfach. Wir lösen mittels Zeilenumformungen
( ) ( )
20 70 50 40 1 0 0 0.4
60 10 50 50 ; 0 1 0 0.1 ,
20 20 0 10 0 0 1 0.5
um die gewünschte Mischung aus 40% Kupfer, 50% Silber und 10% Gold zu
bekommen; das liefert (0.4, 0.1, 0.5). Für die gewünschte Mischung nimmt man
also 40% der Mischung M1 , 10% der Mischung M2 und 50% der Mischung M3 .
3. Es seien a1 j1 , . . . , ar jr die Pivots von A, d.h.
a1 j1 · · · ∗
a2 j2 · · ·
A=
..
. .
ar jr · · ·
0
Wegen ai ji ̸= 0 kann man die Vektoren
vi = t (0, . . . , 0, (ai ji )−1 , 0, . . . , 0)
| {z }
ji
für i = 1, . . . , r definieren. Es gilt Avi = ei nach Konstruktion, und damit ist
span (e1 , . . . , er ) ⊂ Im A .
Aus Teil 1) von Korollar 2.3.1 folgt dimKer A = n − r, also dimIm A = r. Damit
erhalten wir
span (e1 , . . . , er ) = Im A .
4. Die Matrizen
lauten
0 0 0 0 0 1 0
1 1 25 0 −7
7 − 28
3 3
2 2
0 1 −1 1 1
0 2 0
2 2
3
D = 0 0 −1 0 4 , C= 0 4 .
0 0 0 0 0 0 1
0 0 1
0 − 17 − 28 0 0
0 0 0 0 − 14 0 0
2.3 Lineare Gleichungssysteme 155
5. Wir lösen zunächst Teilaufgabe b), was auch eine Lösung für den Spezialfall
a) liefert. Ax = b ist universell lösbar mit der Lösung
( 12 b2 − b3 , −4b1 + 25 b2 + 2b3 , 3b1 − 2b2 − b3 ) .
Für ( )
2
Ax = 4
9
ergibt sich somit die Lösung x = (−7, 20, −11).
Bx = b ist universell lösbar mit der Lösung
x = (−b1 + 2b2 , 12 b1 − 98 b2 + 83 b3 , 12 b1 − 85 b2 − 81 b3 , 0) + λ (−4, −3, 1, 4) .
Die spezielle in Teil a) gefragte Lösung lautet also
(−2, 27 , 12 , 0) + λ (−4, −3, 1, 4) .
m
6. Das gesuchte Polynom f ist gegeben durch f := ∑ φi2 . Für alle x ∈ Rn gilt
i=1
φ 2 (x) > 0, und die Summe von reellen Quadratzahlen ist genau dann gleich 0,
wenn alle Quadratzahlen gleich 0 sind. Daher gilt W = {x ∈ Rn : f (x) = 0}.
Nun sei K ein endlicher Körper. Wir greifen zu einem Trick: Bei einem Po-
lynom f ∈ R := K[t1 , . . . ,tn ] können wir die Unbestimmten t1 , . . . ,tn durch Poly-
nome g1 , . . . , gn ∈ R ersetzen – diesen Vorgang nennt man Substitution. Es gilt
f (g1 , . . . , gn ) ∈ R.
Fassen wir nun die φi als Elemente in R auf, so genügt es, ein Polynom f˜ ∈ R
zu finden, das 0 als einzige Nullstelle besitzt, denn für
f := f˜(φ1 , . . . , φn ) ∈ R
gilt dann
f (φ1 , . . . , φn )(x) = 0 ⇔ φ1 (x) = . . . = φn (x) = 0 .
Ein solches Polynom f˜ gilt es im Folgenden zu konstruieren.
Da K ein endlicher Körper ist, ist er insbesondere nicht algebraisch abge-
schlossen (vgl. [W], 6.3 oder [Ku1], 7.III.), denn das Polynom
f1 = ∏ (t1 − λ ) + 1 ∈ K[t1 ]
λ ∈K
besitzt keine Nullstelle in K. Das Polynom f1 ist das nach Aufgabe 6 zu 1.3
existierende Polynom für den Fall, dass für die xi alle Elemente des Körpers K
eingesetzt und alle yi = 1 gesetzt werden.
156 2 Lineare Abbildungen
d.h. die beiden Zeilenvektoren der Matrix A bestimmen immer noch einen zwei-
dimensionalen Unterraum E des R3 , der senkrecht auf der Geraden L steht (vgl.
Bild 2.2).
Bild 2.2
Wie vielleicht aus der Schule noch bekannt ist, ist der Richtungsvektor, der
senkrecht auf einer Ebene im R3 steht, bis auf das Vorzeichen und die Länge
eindeutig bestimmt. Man gelangt so zur Hesseschen Normalenform einer Ebene,
vgl. auch Aufgabe 5 d) zu Abschnitt 5.1.
√ √ λ2 + λ5 = 0
√ 0.5 λ 1 + 0.5λ2 + √ 0.5λ3 + 0.5λ4 + 0.5λ5 = 0
0.75λ1 + 0.5λ2 + 0.5 0.75λ3 + 0.75λ4 + 0.25λ5 = 0
√ λ1 √ + λ4 = 0
0.75λ1 − 0.5λ2 − 0.5 0.75λ3 + 0.75λ4 + 0.25λ5 = 0,
158 2 Lineare Abbildungen
c) Aus den Spalten von MB (F) bestimmt man eine Basis von Im F. Wie man
leicht erkennt, sind die vierte und die fünfte Spalte von MB (F) linear abhängig,
die ersten vier Spalten jedoch linear unabhängig. Daher ist eine Basis von Im F
gegeben durch (cos, − sin, cos2 − sin2 , 2 sin cos).
Aus den Spalten vier und fünf von MB (F) erkennt man, dass sin2 + cos2 im
Kern von F liegt, was aus sin2 x + cos2 x = 1 für alle x ∈ R auch sofort nach-
zuvollziehen ist. Da dim Ker F = dimV − dim Im F = 5 − 4 = 1 gilt, ist somit
Ker F = span (v4 + v5 ).
2.4 Lineare Abbildungen und Matrizen 159
D
3. a) Es gilt t i 7→n i · t i−1 für 0 6 i 6 n, also
0 1 0 ··· ··· ··· 0
... . . . 2 . . . ..
.
. .. .. ..
.
. . 3 . .
Bn
MBn−1 (Dn ) = .
.. .. .. n .
.. . . .
0
.
.. 0 n−1 0
0 ··· ··· ··· ··· 0 n
| {z }
n+1
b) Wir definieren In als lineare Fortsetzung von t i 7→ i+1 1 i+1
t . Dann gilt die
notwendige Bedingung Dn ◦ In = idVn−1 . Die Matrix von In lautet
0 ··· ··· ··· 0
1 ... ..
.
. .
..
Bn−1 0 1 ..
MBn (In ) = 2
.. . . . 1 . . . .. n + 1 .
. .
. 3
.. . 0
.. ..
.
0 ··· ··· 0 n 1
| {z }
n
4. a) Wir bestimmen zunächst die Bilder der Basisvektoren aus B. Es gilt:
∫1 ∫1
F(1) = 1dt = 2 , F(t) = tdt = 0 ,
−1 −1
∫1 ∫1
F(t 2 ) = t 2 = 32 , F(t 3 ) = t 3 dt = 0 ,
−1 −1
und G(1) = (1, 1, 1) , G(t) = (−1, 0, 1) ,
G(t 2 ) = (1, 0, 1) , G(t 3 ) = (−1, 0, 1) .
Somit ist B
( )
MK (F) = 2, 0, 32 , 0 ∈ M(1 × 4, R)
und ( )
1 −1 1 −1
B
MK ′ (G) = 1 0 0 0 ∈ M(3 × 4, R) .
1 1 1 1
b) Wir vereinfachen MB
K ′ (G) (
durch Zeilenumformungen und erhalten
)
1 0 0 0
0 1 0 1 .
0 0 1 0
160 2 Lineare Abbildungen
F
Daher gilt Ker (G) = span {t − t 3 }. Es genügt, t − t 3 7→ 0 zu zeigen. Das ist
leicht einzusehen: F(t − t 3 ) = F(t) − F(t 3 ) = 0 − 0 = 0. Die ⊂-Relation ist
echt, denn an der Matrix MK B (F) sehen wir, dass Ker F Dimension 3 hat. Es
j
6. Wir zeigen zuerst, dass die Fi ein Erzeugendensystem sind. Dazu nehmen wir
ein beliebiges F ∈ Hom (V,W ). Ein solches F ist durch die Bilder der Basisvek-
toren v1 , . . . , vn eindeutig bestimmt. Ist
m
F(vk ) = ∑ ak j · w j für k = 1, . . . , n ,
j=1
so gilt m n
F= ∑ ∑ ai j · Fi j .
j=1 i=1
j
Das zeigt, dass die Fi ein Erzeugendensystem bilden.
Sei nun m n
F = ∑ ∑ ai j Fi = 0
j
j=1 i=1
die Nullabbildung. Dann gilt für beliebiges k = 1, . . . , n
m n m
0 = F(vk ) = ∑ ∑ ai j Fi j (vk ) = ∑ ak j w j .
j=1 i=1 j=1
Da die w j linear unabhängig sind, folgt daraus ak j = 0 für j = 1, . . . , m. Dies
j
gilt für beliebiges k, also müssen alle ai j = 0 sein; damit sind die Fi linear un-
abhängig.
7. Wir berechnen mittels Zeilenumformungen von A eine Basis des Kerns von F:
Ker F = span (a3 , a4 ) mit a3 := t (12, 7, 0, 1) , a4 := t (10, 6, 1, 0) .
Mit Hilfe von Spaltenumformungen erhalten wir eine Basis des Bildes von F:
Im F = span (b1 , b2 ) mit b1 := t (1, 0, −1) , b2 := t (0, 1, 1) .
2.4 Lineare Abbildungen und Matrizen 161
m ∈ N r {0}. Den Beweis führen wir durch Induktion über m. Für m = 1 ha-
ben wir die Voraussetzung in etwas neuer Form. Angenommen, die Behauptung
sei für m bereits gezeigt. Dann gilt
Bm+1 = Am+1 = Am · A = Bm · A ,
wobei Bm und A die Gestalt haben, die den Matrizen D und E aus der zweiten
Aussage von b) entsprechen. Nach b) folgt dann
i j = 0 für i > j − m ⇔ i > j + 1 − m .
bm
164 2 Lineare Abbildungen
Nachdem wir diese Hilfsbehauptung bewiesen haben, gilt für den Spezialfall
m = n + 1 gerade ( j + 1) − (n + 1) = j − n 6 0, damit ist i > j + 1 − m stets
gegeben, Bn+1 ist somit die Nullmatrix.
Zur Veranschaulichung berechnen wir die Potenzen von
0 1 1 1 1
0 0 1 1 1
M= 0 0 0 1 1 .
0 0 0 0 1
0 0 0 0 0
Es gilt
0 0 1 2 3 0 0 0 1 3
0 0 0 1 2 0 0 0 0 1
M2 = 0 0 0 0 1 , M3 = 0 0 0 0 0 ,
0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0
0 0 0 0 1
0 0 0 0 0
M4 = 0 0 0 0 0 , M 5 = (0) .
0 0 0 0 0
0 0 0 0 0
Vergleiche auch die Ergebnisse dieses Beispiels mit der Lösung zu Aufgabe E1.
3. a) Diese Teilmenge ist ein Unterring. Die Abgeschlossenheit bezüglich der
Multiplikation folgt aus Aufgabe 2 b). Dass die angegebene Menge bzgl. der
Addition eine Gruppe bildet, rechnet man ohne Schwierigkeiten nach.
b) Die Matrizen sind von der Form wie auf der rechten Seite der ersten Glei-
chung von Aufgabe 2 b). Aus diesem Grunde bilden sie, wie man dort erkennen
kann, für k > 2 keinen Unterring, da bei der Multiplikation die Anzahl der Dia-
gonalreihen ungleich 0 ansteigen kann.
Für k = 0 besteht die Menge hingegen nur aus der Nullmatrix, und für k = 1
nur aus Diagonalmatrizen. Diese Mengen sind Unterringe von M(n × n; K).
c) Diese Menge ist ein Unterring. Die wesentliche Eigenschaft ist
( ) ( ′ ′ )( ′ )
a b a b aa ab′ + bc′
· ′ ′ ,
0 c 0 c 0 cc
denn aus a, a′ ∈ Q folgt aa′ ∈ Q.
d) Diese Menge ist ebenfalls ein Unterring, denn es gilt
( ) ( ) ( )
0 a 0 a′ 0 ab′
· ′ = ′ .
0 b 0 b 0 bb
2.5 Multiplikation von Matrizen 165
Zunächst wollen wir allerdings die Behauptung beweisen. Tragen wir die
Vektoren ei als Spaltenvektoren in eine Matrix ein, so lautet sie in Matrizen-
schreibweise
x11 · · · x1n
A · ... .. = (e , · · · , e ) = E .
. 1 n n
xn1 · · · xnn
Daraus folgt jedoch sofort die Behauptung.
Nun kommen wir zur Berechnung der Inversen der angegebenen Matrix A.
Unsere Kürzel und Hieroglyphen zur Rechnung auf der folgenden Seite sollen
dabei folgende Bedeutung haben: Die römischen Ziffern am rechten Rand be-
zeichnen die Zeilenumformung, aus der diese Zeile der beiden Matrizen entstan-
den ist. Z.B. heißt II − 2 · I, dass das Doppelte der ersten Zeile von der zweiten
abgezogen wurde und an der Stelle dieser Notierung plaziert wurde. IIneu be-
deutet, dass mit der neuen zweiten Zeile, die gerade in diesem Schritt erst erstellt
wurde, gerechnet wurde.
1 1 2 4 1 0 0 0
1 3 4 −2 0 1 0 0
0 1 3 6 0 0 1 0
1 3 5 3 0 0 0 1
1 1 2 4 1 0 0 0
0 2 2 −6 −1 1 0 0 II − I
0 1 3 6 0 0 1 0
0 2 3 −1 −1 0 0 1 IV − I
1 1 2 4 1 0 0 0
0 1 3 6 0 0 1 0 III
0 0 −4 −18 −1 1 −2 0 II − 2 · III
0 0 1 5 0 −1 0 1 IV − II
1 1 2 4 1 0 0 0
0 1 3 6 0 0 1 0
0 0 1 5 0 −1 0 1 IV
0 0 0 2 −1 −3 −2 4 III + 4 · IV
1 1 2 0 3 6 4 −8 I − 4 · IVneu
0 1 3 0 3 9 7 −12 II − 6 · IVneu
0 0 1 0 2.5 6.5 5 −9 III − 5 · IVneu
0 0 0 1 −0.5 −1.5 −1 2 0.5 · IV
1 1 0 0 −2 −7 −6 10 I − 2 · IIIneu
0 1 0 0 −4.5 −10.5 −8 15 II − 2 · IIIneu
0 0 1 0 2.5 6.5 5 −9
0 0 0 1 −0.5 −1.5 −1 2
2.5 Multiplikation von Matrizen 169
1 0 0 0 2.5 3.5 2 −5 I − II
0 1 0 0 −4.5 −10.5 −8 15
0 0 1 0 2.5 6.5 5 −9
0 0 0 1 −0.5 −1.5 −1 2
Die gesuchte inverse Matrix ist also
5 7 4 −10
−9 −21 −16 30
0.5 ·
10 −18
,
5 13
−1 −3 −2 4
was man sich immer durch eine Probe bestätigen sollte.
9. a) Sei A = (ai j )16i6m;16 j6n und x = t (x1 , . . . , xn ). Dann gilt
n
∑
k=1
a1k xk
Ax =
..
. .
n
∑ amk xk
k=1
Hierbei bezeichnen wir wie in der Lösung von Aufgabe 4 a) zu 2.5 δi j das Kron-
ecker-Symbol. Die Jacobi-Matrix der Abbildung x 7→ Ax ist also A selbst, wie es
für eine lineare Abbildung zu erwarten war.
b) Wir betrachten nun die Abbildung
n
P : Rn → R , (x1 , . . . , xn ) 7→ ∑ ai j xi x j + ∑ bi xi .
i6 j i=1
Die Jacobi-Matrix von P ist ein Element von M(1 × n; R) und hat an der k-ten
Stelle den Eintrag
( ) ( )
n j
∂ n
∂ n
∑ ai j xix j + ∑ bixi = ∂ xk ∑ ∑ ai j xix j + ∑ bixi
∂ xk i6 j i=1 j=1 i=1 i=1
j
n
∂ n
∂
= ∑ ∑ ai j ∂ xk xix j + ∑ bi ∂ xk xi
j=1 i=1 i=1 | {z }
=δik
170 2 Lineare Abbildungen
∂
(Dabei kann ∂ xk xi x j nur dann ̸= 0 sein, wenn i = k oder j = k ist.)
k
∂ n
∂
= ∑ aik ∂ xk xixk + ∑ ak j
∂ xk
xk x j + bk
i=1 j=k+1
k−1
∂ ∂ 2
= ∑ aik xi xk + akk x
i=1 ∂ x k ∂ xk k
n
∂
+ ∑ ak j xk x j + bk
j=k+1 ∂ xk
k−1 n
= ∑ aik xi + 2akk xk + ∑ ak j x j + bk .
i=1 j=k+1
Die Hesse-Matrix von P hat n Spalten und n Zeilen, und an der Stelle (l, k) den
Eintrag ( )
∂ k−1 n
∑ ik i kk k ∑ k j j k
∂ xl i=1
a x + 2a x + a x + b
j=k+1
k−1
∂ ∂ n
∂
= ∑ aik ∂ xl xi + 2akk ∂ xl xk + ∑ ak j
∂ xl
xj .
i=1 j=k+1
Im Fall l < k ist dieser Term alk , im Fall l = k ist er 2akk = 2all . Falls aber l > k
ist, ist er akl . Somit haben wir
2a11 a12 a13 ··· a1n
a .. .
.
21 2a22 . .
.. .. .. ..
Hessx P = a31 . . . . .
... ..
.
..
.
an−1,n
an1 · · · · · · an,n−1 2ann
Zum Ende dieses Abschnitts erlauben wir uns noch drei Bemerkungen:
i) Im Zeitalter des Computers werden Jacobi- und Hesse-Matrizen nur noch
in seltenen Fällen von Hand berechnet. Computer-Algebra-Systeme stellen
effektive Algorithmen hierfür zur Verfgung, vgl. [B-M], §29.
ii) Die Hesse-Matrix tritt in der Analysis bei der Untersuchung der Extremwerte
von Funktionen auf, vgl. [Fo2], §7.
2.5 Multiplikation von Matrizen 171
iii) Mit Hilfe der Determinante der Hesse-Matrix kann man für eine ebene al-
gebraische Kurve (das ist die Nullstellenmenge eines Polynoms in zwei
Veränderlichen) die sogenannte Hesse-Kurve erklären, die die Wendepunkte
der Kurve liefert (vgl. [Fi2], 4.4–4.6).
Lösungen der Ergänzungsaufgaben
(k−1)
E1. Wir bezeichnen die Einträge der Matrix M k−1 mit mi j . Es ergibt sich die
rekursive Formel
3 n−k
(k−1) (k−1)
0 · · · 0 1 k j=1 ∑ m1,k+ j ··· ∑ m1,k+ j
j=1
.. .. .. .. .. ..
. . . . . .
k .. .. . .. 3 (k−1)
M = . . .. . ∑ m1,k+ j ,
j=1
.. .. ..
. . . k
0 ··· 0 1
0 0 0
wobei die ersten k Spalten und die letzten k Zeilen 0 sind. Daraus bestimmen wir
die Matrizen
0 0 1 2 3 ··· n−2
.. .. .. .. ..
. . . . .
. .
.. .. .. .
3
.. .. ..
M2 = . . . 2
.. ..
. . 1
0
..
. 0
0
und
(n−2)(n−3)
0 0 0 1 3 6 ··· 2
.. .. .. .. .. .. ..
. . . 0 . . . .
.. .. .. .. .. ..
. . . . . . 6
.. .. .. ..
M3 = .
..
. . . . . 3
.. .. .. ..
. . . . 1
0 ··· ··· ··· ··· ··· ··· 0
0 ··· ··· ··· ··· ··· ··· 0
0 ··· ··· ··· ··· ··· ··· 0
172 2 Lineare Abbildungen
A · B = t (A · B). ~
A · B = B · A folgt.
Gilt A · B = B · A, so folgt aus der Symmetrie von A und B
E3. Da sich in heutiger Zeit Rechnungen gut mit CAS oder GTR überprüfen
lassen und es sich hier lediglich um geradlinige Berechnungen handelt, wur-
den die Lösungen hier nicht notiert. Eine Freeware eines CAS ist beispielsweise
wxMaxima.
E4. Der Nachweis wird per Induktion über k geführt. Der Fall k = 1 lautet
2 · A · (A · B − B · A) = A · (A · B − B · A) + A · (A · B − B · A)
~
= A · (A · B − B · A) + (A · B − B · A) · A
= A2 B − ABA + ABA − BA2 = A2 B − BA2 .
2.6 Koordinatentransformationen
1. Zu zeigen ist TCA = TCB · TBA . Wir müssen diese Gleichheit unter Bezug
auf die in 2.6.2 beschriebene Eigenschaft der Transformationsmatrizen zei-
gen. Zunächst legen wir einige Bezeichnungen fest. Es seien A = (v1 , . . . , vn ),
B = (w1 , . . . , wn ) und C = (u1 , . . . , un ) drei Basen des n-dimensionalen Vektor-
raums V . Desweiteren sei v ∈ V mit
n n n
v = ∑ xi vi = ∑ y j w j = ∑ zk uk .
i=1 j=1 k=1
Die Voraussetzungen können wir nun als
y1 x1 z1 y1
(i) : .. = TB .. und (ii) : .. = TC
. A . . B ..
.
yn xn zn yn
schreiben. Die Behauptung lautet analog
z1 x1
... = TCB · TBA ... ,
zn xn
denn TCB · TBA soll Koordinaten von A nach C transformieren. Diese Aussage
lässt sich nach all der Vorarbeit nun verhältnismäßig leicht nachrechnen:
z1 y1 x1
(ii) (i)
... = TCB ... = TCB · TBA ... ,
zn yn xn
was zu beweisen war.
2. In dieser Aufgabe soll nun das bisher theoretisch erworbene Wissen auf einen
konkreten Fall angewendet werden. Als kleine zusätzliche Schwierigkeit sind
die Vektoren hier als Zeilen geschrieben, daher müssen alle Matrizen transpo-
niert werden, was wir jedoch einfach meistern werden.
a) Wegen TBA = MB A (id) berechnen wir die Koordinaten der Basisvektoren aus
3. a) Die Behauptung folgt direkt aus dem Austauschsatz aus 1.5.4. Wir erhalten
die Transformationsmatrizen quasi geschenkt, nämlich
1 1 −1 1 1
1 0 0 0
0 1 0 0 0
′ ′ 1 1 0 0
TBB = 0 0 1 0 0 und TAA =
0 1 1 0
.
0 0 0 1 0
0 0 1 1
0 0 0 0 1
Beide Matrizen haben vollen Rang, und nach dem Austauschsatz sind A ′ bzw.
B ′ daher Basen von V bzw. W .
b) Wir berechnen durch Invertieren (siehe Aufgabe 8 zu 2.5) die Matrix
1 −1 1 −1 −1
0 1 0 0 0
TBB′ = 0 0 1 0 0 .
0 0 0 1 0
0 0 0 0 1
Mit Hilfe der Transformationsformel aus 2.6.5 errechnen sich die gesuchten Ma-
trizen wie folgt:
4 −1 0 2
−4 5 4 −3
A′ A ′
MB = MB (F) · TAA = 4 3 4 1 ,
4 15 16 4
4 −13 −12 5
8 −4 −1 −3
−2 −2 7 −3
A B A
MB ′ = TB ′ · MB (F) = 4 0 3 1 ,
1 3 12 4
0 4 −17 5
4 −5 −4 −3
−4 5 4 −3
A′ B A A′ B A′
MB ′ = TB ′ · MB (F) · TA = TB ′ · MB (F) = 4 3 4 1 .
4 15 16 4
4 −13 −12 5
2.6 Koordinatentransformationen 175
c) Zur Berechnung von F −1 (span (w1 , w2 , w3 )) müssen wir die Lösung von
A
MB (F)x = t (a, b, c, 0, 0) ,
für beliebige a, b, c ∈ R finden. v1 + 5v2 − 4v4 ist eine Basis des Kerns von
F, und damit ist span (v1 + 5v2 − 4v4 ) in jedem Urbild unter F enthalten. Ei-
ne einfache Rechnung ergibt, dass weiterhin genau die Vielfachen des Vektors
−99v1 + 17v2 + 4v3 im Urbild von span (w1 , w2 , w3 ) liegen, da sich einige Be-
dingungen an a, b, c stellen (nämlich a = −1.5b und c = −2b), um das lineare
Gleichungssystem lösen zu können. Somit ist
F −1 (span (w1 , w2 , w3 )) = span (v1 + 5v2 − 4v4 , −99v1 + 17v2 + 4v3 ) .
2. −1
0 0 0 1 0 0 0 1
0 0 1 0 0 0 1 0
0 1 0 0 =
0 1 0 0
1 0 0 0 1 0 0 0
−1
6 3 4 5 −1 −21 6 7
1 2 2 1 1 −1 −9 6 1
2 4 3 2 = 6 0 12 −6 0
3 3 4 2 3 21 −6 −9
( )−1 ( )
1 2 0 1 −2 2
1 1 1 = 1
3 1 1 −1
2 0 1 −2 4 −1
Als Element von M(3×3; Z/3Z) ist diese letzte Matrix jedoch nicht invertierbar,
weil sie nur Rang zwei hat.
3. Wir versuchen, A auf die herkömmliche Weise zu invertieren, und beobachten,
welche Bedingungen sich an a, b, c und d stellen. Eine solche Rechnung zeigt,
dass die einzig mögliche inverse Matrix
( )
1 d −b
·
ad − bc −c a
lauten müsste, die nur genau dann existieren kann, wenn ad − bc ̸= 0 gilt.
2.7 Elementarmatrizen und Matrizenumformungen 177
An dieser Stelle sei auch auf das folgende Kapitel über Determinanten ver-
wiesen, denn det A = ad − bc.
4. Benutzt man die Inversen der Elementarmatrizen aus 2.7.2, so ist mit den
Bezeichnungen in 2.7.6 S−1 gegeben durch B−1 −1
1 · . . . · Bk , denn
Bk · . . . · B1 · Em · B−1 −1
1 · . . . · Bk = Em .
Da Inverse von Elementarmatrizen nach 2.7.2 einfach zu bestimmen sind, kann
das Verfahren folgendermaßen modifiziert werden:
Em A
Em · B−1
1 B1 · A
.. ..
. .
Em · B−1 −1
1 · . . . · Bk Bk · . . . · B1 · A
E3. a) ( )
5 10
p(A) = ,
15 20
b) ( )
52 −70
p(A) = ,
−42 66
c) ( )
−16 −43 2
p(A) = 92 79 32 .
12 20 3
E4. Nach Aufgabe 2 in Abschnitt 2.2 ist d linear. Daher reicht es aus, die Be-
hauptung für die Basis B zu(zeigen.)Hier gilt
(p ◦ d)(sin) = d(2 + id (sin)
) = − sin + sin = 0 und
(p ◦ d)(cos) = d 2 + id (cos) = − cos + cos = 0 .
Damit ist die Behauptung bewiesen.
E5. Es sei p(t) = ∑ni=0 ait i = ant n + an−1t n−1 + . . . + a1t 1 + a0 .
Der Beweis erfolgt per Induktion über den Grad n = deg(p) von p.
n = 0: Es ist F = idV , nach 2.4.4 in [Fi1] gilt MB (idV ) = En . In diesem Fall
ist p(t) = a0 , und es folgt
MB (p(F)) = MB (a0 · idV ) = a0 · MB (idV ) = a0 · En = p(A) .
180 2 Lineare Abbildungen
n → n + 1: Mit Hilfe der Linearität der Abbildung MB an den Stellen (1) und
der Induktionsannahme an der Stelle (2) in der folgenden Rechnung ergibt sich
( )
MB p(F) = MB (an F n + an−1 F n−1 + . . . + a1 F 1 + a0 idV )
(1)
= MB (an F n ) + MB (an−1 F n−1 + . . . + a1 F 1 + a0 idV )
(1)
= an MB (F n )MB (F n−1 ) + MB (an−1 F n−1 + . . . + a1 F + a0 idV )
(2)
= an A · An−1 + (an−1 An−1 + . . . + a1 A + a0 En )
= an An + . . . + a1 A + a0 En = p(A) .
Matrizen als N-Vektoren und die Multiplikation von Matrizen mit Elementen
des als skalare Multiplikation betrachten kann. Damit sind idV , F, F 2 , . . . , F N li-
near abhängig, und es existieren aN , aN−1 , . . . , a1 , a0 ∈ K (nicht alle gleich Null)
mit
aN F N + aN−1 F N−1 + . . . + a1 F + a0 idV = 0 .
N
Damit ist F eine Nullstelle von p(t) = ∑ ai · t i .
i=0
Achtung! Es handelt sich nicht notwendig um das Polynom des geringsten Gra-
des, das diese Bedingung p(F) = 0 erfüllt.
E7. (1) Der Beweis lässt sich per Induktion über n notieren.
Gegeben sei ein Polynom p ∈ K[t] mit
k
p(t) = ∑ bit i = bnt n + bk−1t k−1 + . . . + b1t + b0 .
i=0
Aufgrund der Rechengesetze des Vektorraums der Matrizen über K reicht es aus,
die Behauptung für p(t) = t k zu zeigen.
Für die Matrix A1 gilt dann für k = 2, d.h. p(t) = t 2 ,
2 2
a1 0 a1 0 p(a1 ) 0
p(A1 ) = A21 = ... = ... = 0 ...
0 .
0 an 0 a2n 0 p(an )
2.7 Elementarmatrizen und Matrizenumformungen 181
0 ∗
da in der Diagonale und darunter von . ausschließlich die Null
..
0 0
steht, vgl. hierzu auch [Fi1], Abschnitt 2.5.2. Analoge Überlegungen führen zu
den Ergebnissen für (2) und (3).
Für den Schritt k → k + 1 schreiben wir
ak1 ~ a1 ∗
(♢)
= A2 · A2 = . .
k+1 k .. ..
A2
0 akn 0 an
ak1 0 0 ~
... ...
= +
0 akn 0 0
a1 0 0 ∗
· ... + ... .
0 an 0 0
An der Stelle (♢) wurde die Induktionsannahme benutzt. Multipliziert man diese
Klammern aus, so ergibt sich
k
ak1 0 a1 0 a1 0 0 ∗
. .. . .. + . .. . ..
0 akn 0 an 0 akn 0 0
| {z } | {z }
(a) (b)
0 ~ a1 0 0 ~ 0 ∗
+ ..
. ..
. + ..
. ..
. .
0 0 0 an 0 0 0 0
| {z } | {z }
(c) (d)
Analog zu Teil a) folgt die Behauptung für (a) und (b). Die Produkte (c) und (d)
führen zu Ergebnissen, deren Diagonalelemente gleich Null sind. Damit gilt es
auch für die Summe dieser Produkte (c) und (d), womit die Behauptung folgt,
wenn man p(ai ) = aik+1 berücksichtigt.
An den Berechnungen zeigt sich auch, dass ∗ ̸= ~ sein kann.
2.7 Elementarmatrizen und Matrizenumformungen 183
Es gilt Mi · M j = 0 für alle i ̸= j. Daher können wir uns auf Potenzen Mik be-
schränken. In diesem Fall lassen sich die Ergebnisse aus Aufgabe E7 anwenden,
denn es gilt
0 0
...
0
Mik = A k
i
,
0
..
.
0
und auf Aki lassen sich die Ergebnisse aus Aufgabe E7 anwenden, womit sich die
Behauptung ergibt.
Schlüsse in Aufgabenteil b) verlaufen analog zu Aufgabe E7 b).
Kapitel 3
Determinanten
3. sin α cos α
∗
− cos α sin α
det 1
a b
0
−b a
( ) ( )
D9 sin α cos α a b
= det · det(1) · det
− cos α sin α −b a
= (sin2 α + cos2 α ) · 1 · (a2 + b2 )
= a2 + b2 .
4. Sei A = (ai j ) und B = ((−1)i+ j ai j ). Ist m die große gerade Zahl 6 n, so gilt:
det B = det(Sm (−1) · Sm−2 (−1) · . . . · S4 (−1) · S2 (−1) · A
·S2 (−1) · S4 (−1) · . . . · Sm (−1))
D11
= (−1)m · det A = det A ,
weil m gerade ist. In dieser Rechnung bezeichnet Si (−1) dieselbe Elementarma-
trix wie in 2.7.1.
5. a) A sei eine alternierende quadratische Matrix mit ungerader Zeilen- bzw.
Spaltenanzahl ber einen Körper mit Charakteristik ̸= 2. Nach Satz 3.2.6 gilt
D4
det(A) = det( t A) = det(−A) = (−1)n · det(A) = − det(A) ,
weil n ungerade ist. Aus det A = − det A folgt det A = 0. Bei dieser letzten
Schlussfolgerung geht ein, dass der zugrundeliegende Körper Charakteristik ̸= 2
hat. In einen Körper der Charakeristik 2 gilt, wie den meisten unserer LeserInnen
sicher bekannt ist, x = −x für jedes Körperelement x.
b) Nach Beispiel 3.1.4 c) ist die Aussage für n = 2 und n = 4 klar. Wir beweisen
den Rest per Induktion nach n. Sei also die Matrix
0 a12 · · · ··· a1n
−a .. .. ..
12 . . .
.. . . . .
A= . .. .. .. ..
. . ..
.
..
.
. an−1,n
−a1n · · · · · · −an−1,n 0
gegeben. O.B.d.A. ist a12 ̸= 0, denn sonst lässt sich durch Zeilen- und Spaltenver-
tauschungen (beide sind notwendig, um die Nullen in der Diagonale zu erhalten)
a12 ̸= 0 erreichen, falls ein a1i ̸= 0 existiert. Gilt a1i = 0 für alle i, so ist det A = 0,
und die Behauptung wäre sicher wahr. Wir unterteilen
186 3 Determinanten
0 a12 a13 · · · a1n
−a12 0 a23 · · · a2n
..
A= . −a23 0 ∗ ,
.. .. ..
. . .
−a1n −a2n −∗ 0
( )
und addieren zunächst für i = 3, . . . , n zu der i-ten Zeile das −a 1i
a12 -fache der
zweiten Zeile. Das Ergebnis
sieht so aus:
0 a12 a13 · · · a1n
−a12 0 a23 · · · a2n
A′ = 0 −a23 ,
. .
.. .. B
0 −a2n
wobei in B an der Stelle i j der Eintrag
a1i
− · a2 j + ai j
a12
und speziell für i = j gerade a1i
− · a2i
a12
( )
steht. Nun addieren wir für i = 3, . . . , n das aa12 2i
-fache der ersten Zeile zur i-ten
Zeile und erhalten
0 a12 a13 · · · a1n
−a12 0 a23 · · · a2n
A′′ =
.
0 0 ,
.. .
.. B′
0 0
wobei in B′ an der Stelle i j der Eintrag
a1i a2i
− · a2 j + ai j + · a1 j ~
a12 a12
und für i = j eben a1i · a2i a2i · a1i
− + =0
a12 a12
′
steht. B ist alternierend, und darauf können wir die Induktionsvoraussetzung
anwenden. Damit folgt det B′ = Q̃2 mit einem Polynom Q̃. Es ist jedoch zu be-
achten, dass es sich hierbei um ein Polynom in den Termen aus ~ und nicht in
den ai j handelt. Zunächst gilt
det A = det A′′ = a212 · Q̃2 = (a12 · Q̃)2 .
D9
Schaut man sich die obigen Beweise genau an, so stellt man fest, dass die Be-
hauptungen im wesentlichen auch dann gelten, wenn der Körper K durch einen
faktoriellen Ring (siehe [Ku1], 4.III) ersetzt wird, vgl. hierzu auch Aufgabe 7 zu
3.2. Dies ermöglicht es, die Resultante auch von Polynomen mehrerer Veränder-
licher zu bestimmen, vergleiche hierzu etwa [Fi2], Anhang 1.
Ein wichtiger Spezialfall der Resultante ist die Diskriminante, die definiert
ist durch D f := Res f , f ′ , wobei f ′ die formale Ableitung von f ist (zum Begriff
formale Ableitung“ vergleiche die Lösung von Aufgabe 4 zu Abschnitt 1.3).
”
Auf diese Art kann geprüft werden, ob ein Polynom einen mehrfachen Primfak-
tor besitzt, denn dies ist äquivalent zu D f = 0. Vergleiche auch Ergänzungsauf-
gabe E1 zu diesem Abschnitt und Ergänzungsaufgabe E1 zu Abschnitt 3.2.
3.1 Beispiele und Definitionen 189
0 = g(λ ) + (λ − λ ) · g′ (λ ) = g(λ ) .
Wiederum nach Lemma 1.3.8 existiert ein g̃ ∈ K[t] r 0 mit g = (t − λ ) · g̃, also
f = (t − λ )2 · g̃, und f hat eine mehrfache Nullstelle.
Nun widmen wir uns der dritten Eigenschaft. Nach Aufgabe 6 gilt D f = 0 genau
dann, wenn f und f ′ einen gemeinsamen nichtkonstanten Teiler h ∈ C[t] haben,
d.h.
f = h·g und f ′ = h · g̃ .
Da jedes Polynom vom Grad > 1 über den komplexen Zahlen nach dem Fun-
damentalsatz der Algebra (vgl. 1.3.9) mindestens eine Nullstelle hat, folgt die
Äquivalenz von ii) und iii).
E2. Bei dieser Lösung benutzen wir die Bezeichnung
n
ai = (ai1 , . . . , ain ) = ∑ ai j · e j ,
j=1
an an
190 3 Determinanten
e1 en
a2 a2
= a11 · det
... + . . . + a1n · det ...
an an
ei1
n a2
= ∑ a1i1 · det
... .
i1 =1
an
Führen wir diesen Schritt für jede Zeile durch, so erhalten wir
n n n ei1
det A = ∑ ∑ · · · ∑ a1i1 · . . . · anin · det ... ~
i1 =1 i2 =1 in =1 ein
ei1
Wenn wir zeigen können, dass det .. ∈ {−1, 0, 1} gilt, sind wir fertig.
.
ein
Nehmen wir daher an, dass die Determinante ungleich null ist. Dies ist gleich-
bedeutend mit der linearen Unabhängigkeit von (ei1 , . . . , ein ). Aufgrund von
dimK n = n bedeutet dies, dass (ei1 , . . . , ein ) bis auf ihre Vorzeichen die kano-
nische
Basis von K n bilden. Durch l-maligen Zeilenvertausch in der Matrix
ei1
... können wir diese somit in die Einheitsmatrix En überführen, für die
ein
det En = 1 gilt. Mit Hilfe von (D6) folgt daher
ei1
det .. = (−1)l ,
.
ein
daher können wir ~ umformulieren zu
n n n
det A = ∑ ∑ · · · ∑ (−1)l · a1i1 · . . . · anin ,
i1 =1 i2 =1 in =1
womit wir fertig sind.
Bemerkung: Ähnliche Überlegungen befinden sich allgemeiner formuliert in Ab-
schnitt 3.2.
3.2 Existenz und Eindeutigkeit 191
j−1
Systematisch betrachtet steht also an der Stelle (i, j) der Matrix der Eintrag xi .
Die xi stehen für Einträge aus einem beliebigen Körper (allgemeiner: aus einem
kommutativen Ring; für diese lassen sich Determinanten- und Matrizentheorien
entwickeln, vgl. Aufgabe 7). Wir beweisen die Aussage durch Induktion über n.
Der Induktionsanfang n = 1 lautet:
det(1) = ∏ (x j − xi ) = 1 ,
16i< j61
weil es sich um das leere“ Produkt handelt, dessen Wert als 1 definiert ist. An-
”
genommen, die Aussage sei für n bereits bewiesen. Wir zeigen, dass sie dann
auch für n + 1 gelten muss. Wir müssen
1 x1 x12 ··· x1n−1 x1n
.. .. .. .. ..
. . . . .
1 xn xn2 · · · xnn−1 xnn
2
1 xn+1 xn+1 ··· n−1
xn+1 n
xn+1
berechnen. Durch Addieren des (−xn+1 )-fachen der k-ten Spalte zur (k + 1)-ten
Spalte (k durchläuft hier 1 bis n) erhalten wir
1 x1 − xn+1 x1 (x1 − xn+1 ) · · · x1n−2 (x1 − xn+1 ) x1n−1 (x1 − xn+1 )
.. .. .. .. ..
= . . . . . .
1 xn − xn+1 xn (xn − xn+1 ) · · · xnn−2 (xn − xn+1 ) xnn−1 (xn − xn+1 )
1 0 0 ··· 0 0
Nun können wir durch Zeilenvertauschungen die letzte Zeile in die erste Zeile
192 3 Determinanten
beträgt. Dieses Produkt kann jedoch nie null sein, weil die ki alle verschieden
sind.
4. Wir zeigen det(ai j ) = det((−1)i+ j ai j ) mit Hilfe der Formel von Leibniz, die
die Determinante über
det(ai j ) = ∑ sign (σ )a1σ (1) · . . . · anσ (n)
σ ∈Sn
sehr formell definiert, was für Rechnungen und Beweise zunächst sehr unhand-
lich erscheint. Hier gilt
det((−1)i+ j ai j ) = ∑ sign (σ )(−1)1+σ (1) a1σ (1) · . . . · (−1)n+σ (n) anσ (n)
σ ∈Sn
= ∑ sign (σ )(−1)∑i σ (i)+∑i i a1σ (1) · . . . · anσ (n) .
σ ∈Sn
n(n+1)
Da ∑ni=1 σ (i) = ∑ni=1 i = 2 ist, ist diese Summe gleich
= (−1) n(n+1)
· ∑ sign (σ ) · a1σ (1) · . . . · anσ (n)
σ ∈Sn
= (−1)n(n+1) · det(ai j ) .
n(n + 1) ist jedoch stets eine gerade Zahl; damit ist die Behauptung gezeigt.
3.2 Existenz und Eindeutigkeit 193
D7: O.E. sei B aus A durch Addition des λ -fachen der zweiten Zeile zur ersten
Zeile entstanden, d.h. b1 j = a1 j + λ a2 j für j = 1, . . . , n und bi j = ai j für i ̸= 1.
3.2 Existenz und Eindeutigkeit 195
Dann gilt
det B = ∑ sign (σ ) · b1σ (1) · b2σ (2) · . . . · bnσ (n)
σ ∈Sn
= ∑ sign (σ ) · (a1σ (1) + λ a2σ (1) ) · a2σ (2) · . . . · anσ (n)
σ ∈Sn
= ∑ sign (σ ) · a1σ (1) · a2σ (2) · . . . · anσ (n)
σ ∈Sn
+λ ∑ sign (σ ) · a2σ (1) · a2σ (2) · . . . · anσ (n) .
σ ∈Sn
Die zweite Summe ist null, weil sie die Determinante einer Matrix ist, die zwei
gleiche Zeilen hat, siehe auch D2 in 3.2.5.
D8: A sei eine obere Dreiecksmatrix, d.h. ai j = 0 für i > j. Es gilt
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
In jedem Summanden ist mindestens ein Faktor null, falls σ ̸= id ist, da in diesem
Fall mindestens ein i mit i > σ (i) existiert. Dann gilt für die Determinante von A
det A = sign (id) · a11 · a22 · . . . · ann ,
sie entspricht also dem Produkt der Diagonaleneintrge.
D9: Mit einer analogen Idee wie im Beweis von D8 lässt sich auch diese Aus-
sage zeigen. Wir führen dies aus, da wir in der Lösung zu Aufgabe 7 darauf
zurückgreifen
( werden.
)
Sei A = ai j ∈ M(n × n; K) gegeben durch
( )
A1 C
A=
0 A2
mit ( ) ( )
(1) (2) ( )
A1 = ai j , A2 = ai j C = ci j 16i6k .
16i, j6k k+16i, j6n k+16 j6n
Für die Determinante gilt
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
Gilt k +1 6 i 6 n sowie 1 6 j = σ (i) 6 k für eines der ai j , so ist ai j = 0, d.h. jeder
Summand, der ein solches ai j enthält, verschwindet und muss bei der Bestim-
mung der Determinante nicht berücksichtigt werden. In jedem weiteren Sum-
(2)
manden ist, falls k + 1 6 i 6 n gilt, σ (i) ∈ {k + 1, . . . , n}, d.h. aiσ (i) = aiσ (i) . (Man
beachte, dass ein solcher Summand trotzdem gleich null sein kann, da nicht not-
wendig alle Einträge der Matrix A2 von null verschieden sein müssen.) In diesem
Summanden gilt dann jedoch aufgrund der Bijektivität von σ für alle 1 6 i 6 k
196 3 Determinanten
(1)
gerade aiσ (i) = aiσ (i) . Bezeichnen wir die Menge aller Permutationen in Sn , die
diese Voraussetzung erfüllen, d.h. die Mengen {1, . . . , k} sowie {k + 1, . . . , n}
invariant lassen, mit S, so folgt
∑ sign (σ )a1σ (1) · . . . · akσ (k) · ak+1σ (k+1) · . . . · anσ (n)
(1) (1) (2) (2)
det A =
σ ∈S
∑
(1) (1) (2) (2)
= sign (ρ1 )sign (ρ2 )a1ρ · . . . · ak ρ · ak+1ρ · . . . · anρ
1 (1) 1 (k) 2 (k+1) 2 (n)
ρ1 ∈Sk
ρ2 ∈Sn−k
woraus folgt
n n
det(A · B) = ∑ sign (σ ) · ∑ a1 j1 b j1σ (1) · . . . · ∑ an jn b jnσ (n)
σ ∈Sn j1 =1 jn =1
n
= ∑ sign (σ ) · ∑ a1 j1 b j1 σ (1) · . . . · an jn b jn σ (n) . (∗)
σ ∈Sn j1 ,..., jn =1
Die Gültigkeit von D9 folgt aus dem Beweis von D9 in Aufgabe 6, da sämtli-
che Rechenschritte auch in kommutativen Ringen ausgeführt werden können.
Der Begriff Rang ist über dim Im A bzw. lineare Abhängigkeit definiert (vgl.
2.2.1). Dies macht jedoch in einem Modul über einem Ring keinen Sinn, daher
gibt es in diesem Fall kein äquivalent zur Aussage D10.
Zur Gültigkeit von D11 vgl. die Lösung zur Aufgabe 6. Die dort durchgeführte
Rechnung kann auch in einem kommutativen Ring durchgeführt werden.
Die Gültigkeit der Aussage D11 hat eine interessante Konsequenz, denn ist R ein
kommutativer Ring und A ∈ M(n × n; R), so gilt
A ist invertierbar ⇔ det A ∈ R ist invertierbar,
d.h. es existiert ein r ∈ R mit det A · r = 1. In einem kommutativen Ring ist im
Allgemeinen nicht jedes Element aus R r 0 invertierbar, und det A ̸= 0 bedeutet
dann nicht notwendig, dass A invertierbar ist. Die invertierbaren Elemente ei-
nes Rings heißen Einheiten und bilden bzgl. der Multiplikation eine Gruppe, die
Einheitengruppe von R, vgl. [W], 3.1.2 und [Ku1], §4.I.
Zur Theorie von Determinanten über kommutativen Ringen vgl. [L], Chapter
XIII, §4. Wir empfehlen die folgende
Ergänzungsaufgabe. Bestimmen Sie für den Ring R := Z/4Z die Einheiten-
gruppe sowie die Menge der invertierbaren Matrizen in M(2 × 2; R).
Die Lösung befindet sich am Ende dieses Abschnittes.
8. Wir wählen einen einzelnen Summanden
a := sign (σ ) · a1σ (1) · . . . · anσ (n)
von
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
Von Bedeutung sind nur die σ ∈ Sn , für die kein ungerader Zykel existiert, d.h.
keine ungerade Zahl 1 6 j < n mit {i1 , . . . , i j } = {σ (i1 ), . . . , σ (i j )}. Wir be-
trachten {i1 , . . . , i j } = {1, . . . , j}; der allgemeine Fall verläuft analog, er ist nur
schwerer zu notieren. Nach Aufgabe 5 a) aus 3.1 gilt dann
∑ sign (ρ ) · a1ρ (1) · . . . · a jρ ( j) · a j+1,l1 · . . . · an,ln− j = 0
ρ ∈S j
für l1 , . . . , ln− j fest. Die Permutation σ enthält also o.B.d.A. höchstens gerade
Zykel.
Wir zerlegen nun die Menge der Paare (i, σ (i)) aus a in zwei disjunkte Men-
gen M1 und M2 , so dass in jeder dieser Mengen alle Zahlen 1 6 j 6 n genau
einmal vorkommen. Das geht so: Wir wählen das Paar (1, σ (1)) für M1 . Es
3.2 Existenz und Eindeutigkeit 199
existiert genau ein weiteres Paar (k2 , l2 ) mit k2 = σ (1), nämlich (σ (1), σ (σ (1))).
Dieses wählen wir für M2 . Gilt l2 = 1, so starten wir unsere Überlegungen mit
dem kleinsten i der verbleibenden Paare (i, σ (i)) erneut. Ansonsten gibt es ge-
nau ein weiteres Paar (k3 , l3 ) mit k3 = l2 . Dieses wählen wir für M1 . Da σ keine
ungeraden Zykel enthält, gilt l3 ̸= 1. Also gibt es genau ein weiteres Paar (k4 , l4 )
mit k4 = l3 . Dieses wählen wir für M2 . Gilt l4 = 1, so beginnen wir unsere Über-
legungen mit dem kleinsten i der verbleibenden (i, σ (i)) erneut. Ansonsten gibt
es genau ein weiteres Paar (k5 , l5 ) mit k5 = l4 . Fahren wir so fort, erhalten wir
Mengen M1 und M2 von Paaren (k, l), so dass in jeder Menge jede Zahl 1 6 j 6 n
in genau einem Paar vorkommt.
Es seien (i1 , σ (i1 )) , . . . , (is , σ (is )) die Paare (i, σ (i)) mit i > σ (i). Da A schief-
symmetrisch ist, folgt
ai1 σ (i1 ) · . . . · ais σ (is ) = (−1)s · aσ (i1 )i1 · . . . · aσ (is )is . (∗)
Vertauschen wir die Elemente der Paare (ki , li ) in M1 und M2 , so dass ki < li
(1) (1) (2) (2)
für alle i gilt, ordnen dann die Paare (ki , li ) in M1 und (ki , li ) in M2
( j) ( j)
für 1 6 i 6 m so an, dass ki < ki+1 für alle i und j = 1, 2 gilt, können wir
den so geordneten Paaren eindeutig Permutationen σ1 , σ2 ∈ Sn zuordnen mit
σ j (2i) > σ j (2i − 1) für i = 1, . . . , m und σ j (2i + 1) > σ j (2i − 1) für
i = 1, . . . , m − 1 sowie j = 1, 2.
Die Vertauschung der Einträge eines Paares (k, l) von σ1 bzw. σ2 entspricht
nach 3.2.2 der Multiplikation mit einer Transpositon, und die Vertauschung zwei-
er Paare (ki , li ) und (k j , l j ) von σ1 bzw. σ2 der Multiplikation mit einer geraden
Anzahl von Transpositionen. Daher gilt nach Korollar 1, Teil 2) in 3.2.3
sign (σ ) = (−1)s · sign (σ1 ) · sign (σ2 ) ,
und mit (∗) folgt daraus
a = sign (σ ) · a1σ (1) · . . . · anσ (n)
= (−1)s sign (σ1 ) · sign (σ2 ) · (−1)s aσ1 (1)σ1 (2) · . . . · aσ1 (2m−1)σ1 (2m) ·
·aσ2 (1)σ2 (2) · . . . · aσ2 (2m−1)σ2 (2m)
= sign (σ1 ) · sign (σ2 ) · aσ1 (1)σ1 (2) · . . . · aσ1 (2m−1)σ1 (2m) ·
(∗∗)
·aσ2 (1)σ2 (2) · . . . · aσ2 (2m−1)σ2 (2m) .
Damit gehört zu jedem Summanden a von det A ein eindeutiges Produkt (∗∗)
mit σ j (2i) > σ j (2i − 1) für i = 1, . . . , m als auch mit
σ j (2i + 1) > σ j (2i − 1) für i = 1, . . . , m − 1 sowie j = 1, 2, wobei die Reihenfolge
von σ1 und σ2 von Bedeutung ist. Es gibt genau m! verschiedene Möglichkeiten,
das Produkt
aσi (1)σi (2) · . . . · aσi (2m−1)σi (2m)
200 3 Determinanten
Der Beweis der verbleibenden Inklusion ist trickreich und wird an der ent-
scheidenden Stelle durch eine Induktion über den Betrag eines der Matrizen-
Einträge erfolgen. Zuvor betrachten wir jedoch Matrizen, die mindestens einen
Eintrag mit 0 enthalten.
Im Folgenden bezeichnen wir für m ∈ Nr0 mit Am und Bm die Potenzen von A
und B( sowie )mit A−m die m-te Potenz der inversen Matrix
1 −1
A−1 = von A, und A0 = E2 . Für die Matrix B gilt B4 = E2 , und
0 1
( )
1 m
für m ∈ Z gilt Am = .
0 1
( )
a b
Ist in einer Matrix C = der Eintrag a = 0, so folgt aus detC = 1
c d
( ) ( )
0 −1 0 1
C= oder C =
1 m −1 m
mit m ∈ Z. C hat in diesem Falle die Darstellung
C = B3 · Am oder C = B · A−m ,
d.h. C ∈ erz (A, B).
Analog gilt für den Fall d = 0
( ) ( )
m 1 m −1
C= oder C =
−1 0 1 0
mit m ∈ Z, woraus folgt
C = A−m · B oder C = Am · B3 .
Genauso zeigt man, dass für b = 0 oder c = 0 die entsprechenden Matrizen in
erz (A, B) liegen.
Jetzt
( kommt)der schwierige Teil, denn wir müssen für eine beliebige Matrix
a b
C= ∈ SL (2; Z), in der auch alle Einträge ungleich 0 sein können,
c d
zeigen, dass sie in erz (A, B) liegt.
Dazu nehmen wir zunächst an, dass |c| = min {|a|, |b|, |c|, |d|} gilt und führen
Induktion über |c|.
Den Fall |c| = 0 haben wir bereits oben ausführlich behandelt. Ist |c| = 1, so
hat C die Gestalt ( )
a b
C± = ,
±1 d
und damit folgt für c = 1
( ) ( )
1 −a 0 −ad + b
A−a ·C+ = ·C+ = =: D1 ,
0 1 1 d
202 3 Determinanten
sowie für c = −1 ( ) ( )
1 a 0 ad + b
Aa ·C− = ·C− = =: D−1 ,
0 1 −1 d
und nach den obigen Ausführungen gilt D1 , D−1 ∈ erz (A, B). Durch Multipli-
kation von links mit der Inversen Matrix von A−a erkennen wir daran, dass
C ∈ erz (A, B) gilt.
Ist nun |c| > 2, so sind a und c wegen der Bedingung ad − bc = 1 teiler-
fremd. Da c der vom Betrag her minimale Eintrag der Matrix C ist, existiert
nach dem euklidischen Algorithmus (vgl. [B], Kapitel 2 sowie [W], Satz 1.6) ein
n ∈ N r 0 mit
|nc| < |a| < |(n + 1)c| ,
und damit existiert ein m ∈ Z mit
|mc + a| < |c| .
c) Nach Teil a) genügt es, dimL0 = n zu zeigen. Dazu wählen wir ein x0 ∈ I und
definieren
Fx0 : L0 → Rn , φ 7→ φ (x0 ) =: c .
Mit Hilfe der Definition der Vektorraum-Struktur auf D (vgl. Aufgabe 3 zu 1.4)
folgt, dass Fx0 linear ist. Aus dem Existenz- und Eindeutigkeitssatz folgt, dass
Fx0 bijektiv ist. Also ist Fx0 ein Isomorphismus, es gilt dim L = dim Rn = n.
Eine Basis von L0 , d.h. φ (1) , . . . , φ (n) ∈ L , welche die Bedingungen unter b)
erfüllen, heißt Fundamentalsystem der Differentialgleichung φ ′ = A · φ . Die all-
gemeine Lösung φ dieser Differentialgleichung hat dann die Form
φ = λ1 φ (1) + . . . + λn φ (n) mit λ1 , . . . , λn ∈ R .
Mit Hilfe der Wronski-Determinante kann man leicht prüfen, ob Funktionen
φ (1) , . . . , φ (n) ein Fundamentalsystem der Differentialgleichung φ ′ = A · φ bil-
den. Diese Aussage ist nach Bedingung ( iii)) aus Teil b) äquivalent dazu, dass
( j)
mindestens ein x0 ∈ I existiert mit det φi (x0 ) ̸= 0, vergleiche auch mit der
Lösung von Aufgabe 12.
12. Es sei wie in der Aufgabenstellung y0 = y, y1 = y′ . Die Differentialgleichung
schreibt sich dann ( ′ ) ( )
y0 y0 (∗)
= A ,
y′1 y1
Damit erzeugen ω̃1 und ω̃2 in Ω. Aufgrund der Linearität der Abbildung in Ver-
bindung mit der Matrix erzeugen ω̃1 und ω̃2 die Gruppe Ω.
ω1 und ω2 erzeugen die Gruppe Ω. Daher existieren a, b, c, d ∈ Z mit
ω̃1 = aω1 + bω2 und ω̃2 = cΩ1 + d ω2 . Damit ergibt sich die Matrix.
Da die ωi und die ω̃i dieselben Maßeinheiten besitzen, muss |ωi | = |ω̃i | sein.
Da die Determinante den Streckungsfaktor
1 einer linearen Abbildung angibt (vgl
[Fi1], Abschnitt 3.1), muss ad−bc = 1 sein. Die Rechengesetze der Gruppe las-
sen sich wie in Teil a) zeigen.
E3. a) Surjektivität: Es sei z̃ ∈ C. Es werden die Fälle z̃ ̸= ac und z̃ = ac unter-
schieden.
Für z̃ ̸= ac gilt
az + b
z̃ = ⇐⇒ z̃(cz + d) = az + b
cz + d
⇐⇒ czz̃ + d z̃ = az + b
⇐⇒ czz̃ − az = b − d z̃
⇐⇒ z(cz̃ − a) = b − d z̃
b − d z̃
⇐⇒ z =
cz̃ − a
Im Fall z̃ ̸= ac ist hiermit eine Lösung gegeben. Ist z = ac , so ist z = 1 eine Lösung.
Somit ist die Abbildung surjektiv.
Injektivität: Es gilt
az1 +b az2 +b
cz1 +d = cz2 +d
⇐⇒ (az1 + b)(cz2 + d) = (az2 + b)(cz1 + d)
⇐⇒ acz1 z2 + az1 d + bcz2 + bd = az2 cz1 + az2 d + bcz1 + bd
⇐⇒ adz1 + bcz2 = adz2 + bcz1
⇐⇒ (ad − bc)z1 = (ad − bc)z2
⇐⇒ z1 = z2 ,
wobei im letzten Schritt ad − bc ̸= 0 berücksichtigt wurde.
Hiermit ist die Abbildung injektiv für ad − bc ̸= 0 und insgesamt bijektiv.
b) Zunächt ist zu zeigen, dass die Verknüpfung zweier Möbius-Transformationen
wieder eine Möbius-Transformation ist. Hierzu seien
a1 z + b1 a2 z + b2
M1 (z) := und M2 (z) :=
c1 z + d1 c2 z + d2
zwei Möbius-Transformationen. Für die Verknüpfung ◦ ergibt sich
(a2 a1 + b2 c1 )z + (a2 b1 + b2 d1 )
(M2 ◦ M1 ) = , (3.1)
(c2 a1 + d2 c1 )z + (c2 b1 + d2 d1 )
womit es sich um eine Möbius-Transformation handelt. Es bleibt noch zu zeigen,
dass
(a2 a1 + b2 c1 )(c2 b1 + d2 d1 ) − (c2 a1 + d2 c1 )(a2 b1 + b2 d1 ) ̸= 0
208 3 Determinanten
womit die Behauptung bewiesen ist. Die Abbildung wird bijektiv, wenn für den
größten gemeinsamen Teiler ggT(a, b, c, d) = 1 erfüllt ist.
d) Es sei z = z1 + iz2 mit zi ∈ R und z2 > 0. Dann gilt
az + b a(z1 + iz2 ) + b
=
cz + d c(z1 + iz2 ) + d
az1 + iaz2 + b
=
cz1 + icz2 + d
(az1 + iaz2 + b)(cz1 + d − icz2 )
=
(cz1 + d)2 + (cz2 )2
acz1 + adz1 + acz22 + bcz1 + bd
2
=
(cz1 + d)2 + (cz2 )2
−iaz1 cz2 + iaz2 cz1 + iadz2 − ibcz2
+
(cz1 + d)2 + (cz2 )2
(−acz1 z2 + acz1 z2 + adz2 − bcz2 )
= Realteil + i ·
(cz1 + d)2 + (cz2 )2
ad − bc
= Realteil + i · z2 ,
(cz1 + d)2 + (cz2 )2
3.3 Minoren∗
1. a) Für n = 2 ist die Abbildung A 7→ A♯ noch linear, für n > 2 jedoch nicht. Im
ersten Fall gilt
( )♯ ( )
a b d −b
= .
c d −c a
woraus folgt
( )♯ ( ( )♯ )
0 = (det A)n−1 · A − det A · A♯ = det A · (det A)n−2 · A − A♯ .
( )♯ ( )♯
Ist det A ̸= 0, so gilt (det A)n−2 · A − A♯ = 0, also A♯ = (det A)n−2 · A.
( ♯ )♯
Im Fall det A = 0 nehmen wir an, es gilt A ̸= 0. Dann existiert ein
(n − 1)-Minor von A♯ , der ungleich 0 ist, und nach Satz 3.3.6 ist rang A♯ > n − 1.
Mit derselben Argumentation folgt rang A > n − 1. (Es folgt wegen det A =
0 sogar rang A♯ = n − 1 = rang A.) Da jedoch aus det A = 0 wie in Teil c)
rang (A♯ · A) = 0 folgt, gilt nach Lemma 2.5.5
( )
n − 2 6 rang A♯ + rang A − n 6 rang A♯ · A = 0 .
Wegen n > 3 ist n − 2 > 0, was ein Widerspruch ist. Also ist im Fall det A = 0
( )♯
ebenfalls A♯ = 0, was zu zeigen war.
2. Wegen m > n folgt rang A 6 n und rang B = rang t B 6 n. Aus Lemma 2.5.5
erhalten wir die Abschätzung
rang (A · t B) 6 min {rang A, rang B} 6 n < m .
Wegen A · t B ∈ M(m × m; K) und nach Eigenschaft D10 folgt det(A · t B) = 0.
3. Diese Aufgabe löst man durch geradlinige Rechnung; wir lassen die Lösung
daher aus.
4. Das Ergebnis erhält man z.B. durch Entwickeln nach Laplace. Wir wollen die-
se Aufgabe hier nicht ausführlich vorrechnen. Insbesondere ist die Determinante
immer > 0 für reelle a, b, c, d.
5. i) ⇒ ii): x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) seien linear abhängig. Dann exis-
tiert o.B.d.A. (siehe Aufgabe 1 zu 0.3) ein λ ∈ K mit yi = λ xi für 1 6 i 6 n. In
diesem Fall gilt für alle i, j
( ) ( )
xi yi xi λ xi
det = det = λ xi x j − λ xi x j = 0 .
xj yj xj λxj
( )
xi yi
ii) ⇒ i): Sei det = 0 für alle i, j. Nach Satz 3.3.6 ist dann der Rang
xj yj
( )
x1 · · · xn
der Matrix höchstens 1. Er ist genau 1, wenn x ̸= 0 oder y ̸= 0,
y1 · · · yn
andernfalls ist der Rang 0.
212 3 Determinanten
x2 y2
det = pp14
24
· p14 − 0 = p24 ,
( x4 y4 )
x3 y3
det = pp34 · p14 − 0 = p34 ,
x4 y4 14
dann der Fall ist, wenn die Determinante der Matrix bestehend aus den Spalten-
vektoren (x, y, x′ , y′ ) gleich 0 ist.
Entwicklung der Matrix mit den Spaltenvektoren (x, y, x′ , y′ ) nach der ersten
Spalte ergibt
det(x, y, x′ , y′ ) = x1 (y2 q34 − y3 q24 + y4 q23 ) − x2 (y1 q34 − y3 q14 + y4 q13 )
+x3 (y1 q24 − y2 q14 + y4 q12 ) − x4 (y1 q23 − y2 q13 + y3 q12 )
= p12 q34 − p13 q24 + p14 q23 + p23 q14 − p24 q13 + p34 q12 ,
woraus die zweite Äquivalenz folgt.
Analog kann man für 1 6 k 6 n auch Plückerkoordinaten ( )eines k-dimensiona-
len Untervektorraumes E ⊂ K n einführen. Das sind die nk -Minoren einer aus
k Basisvektoren von E bestehenden Matrix. Analog zu Teil a) und b) zeigt man,
dass diese Plückerkoordinaten bis auf einen Faktor aus K r 0 eindeutig bestimmt
n
sind, ihnen somit ein eindeutiger Punkt im projektiven Raum P(K ( k ) ) zuge-
ordnet werden kann. Wir nennen die entsprechende Abbildung für beliebiges k
ebenfalls p.
Die Menge G(k, n), die durch
G(k, n) := {U ⊂ K n : dimU = k}
definiert wird, heißt Grassmann-Varietät oder Grassmann-Mannigfaltigkeit, sie-
he hierzu etwa [Sh], §4.1, [Ha], Lecture 6.
7. Wir beweisen die Behauptung per Induktion über n. Für n = 1 ist
det(x) = x11 sicher irreduzibel.
Um den Induktionsschritt zu zeigen, übetrachten wir die Summe
det(x) = ∑ sign (σ ) · x1σ (1) · . . . · xnσ (n)
σ ∈Sn
und übertragen sie durch Ausklammern in
det(x) = x1n ∑ sign (ρ ) · x2ρ (1) · . . . · xnρ (n−1)
ρ ∈Sn−1
+x2n ∑ sign (ρ ) · x1ρ (1) · x3ρ (2) · . . . · xnρ (n−1)
ρ ∈Sn−1
+ . . . + xnn ∑ sign (ρ ) · x1ρ (1) · . . . · xn−1ρ (n−1) .
ρ ∈Sn−1
Auf die Summen über Sn−1 in jedem Summanden können wir die Induktionsvor-
aussetzung anwenden; sie sind also irreduzibel. Daraus folgt jedoch unmittelbar
die Irreduzibilität von det(x), denn die einzelnen Summanden in der obigen Sum-
me sind teilerfremd.
3.3 Minoren∗ 215
d.h. ( )♯ ( )
a b
A♯ = = A.
c d
E2. Durch Addition des (−1)-fachen der letzten Zeile zur zweiten bis
(n − 1)-ten Zeile erhalten wir
0 1 ··· ··· ··· 1
0 −1 0 ··· 0 1
. . .. ..
.. . . . . . ..
. . .
A′ :=
.. .. ..
. .
. . . 0 ..
0 ··· ··· 0 −1 1
1 ··· ··· ··· 1 0
Durch Addition der ersten bis (n − 1)-ten Spalte zur letzten Spalte überführen
wir die Matrix A′′ in die Form
1 ··· ··· ··· n−1
−1 0 · · · 0 0
..
.. .. ..
A′′′ := . . . . .
.. .
. 0 ..
0 −1 0
Aufgrund von D7 und Satz 3.2.6 gilt det A′′′ = det A′′ , und entwickeln wir nun
216 3 Determinanten
n n
ai := ∑ ai j · b j bzw. a′i := ∑ ai j · b j ,
j=1 j=1
Φ ist surjektiv, weil wir für jedes A = (ai j ) ∈ GL(n; K) aus einer Basis
n
B = (b1 , . . . , bn ) eine neue Basis A := (a1 , . . . , an ) durch a j := ∑ ai j bi kon-
i=1
struieren können.
Der Zusammenhang zwischen Φ und der in 3.4.3 definierten kanonischen Ab-
bildung ist nun einzusehen, denn es gilt M(A ) = Φ(A ) = MAB (id), wenn man
eine Abbildung
φ̃ : I → M(n × n; R) durch φ̃ (t) := φ (α + β − t) ,
so ist φ̃ stetig, da φ stetig ist und α + β − t ∈ I für jedes t ∈ I gilt. Aus der
Invertierbarkeit von φ für alle t ∈ I folgt die Invertierbarkeit von φ̃ für alle t ∈ I.
Schließlich folgt aus φ̃ (α ) = φ (β ) = B und φ̃ (β ) = φ (α ) = A, dass φ̃ ein Weg
von B nach A ist. Das zeigt die Symmetrie der Verbindbarkeit.
Für A, B,C ∈ GL (n; R) mit A ∼ B und B ∼ C existieren Wege φ1 mit φ1 (α1 ) =
A, φ1 (β1 ) = B bzw. φ2 mit φ2 (α2 ) = B, φ2 (β2 ) = C auf Intervallen I1 = [α1 , β1 ]
bzw. I2 = [α2 , β2 ], so dass φ1 (t) ∈ GL (n; R) für alle t ∈ I1 und φ2 (t) ∈ GL (n; R)
für alle t ∈ I2 gilt. Dabei können wir o.B.d.A. annehmen, dass I1 = I2 gilt, denn
sonst definiere
β1 − t t − α1
ξ : I1 → I2 , t 7→ · α2 + · β2 ,
β1 − α1 β1 − α1
und φ̃ := φ2 ◦ ξ ist ein Weg mit dem Definitionsbereich I1 . (Man beachte, dass
wir hierdurch sogar o.B.d.A. I = [0, 1] annehmen können, was bei Rechnungen
häufig Vorteile bringt, in unserem Fall jedoch egal ist.)
Es sei also I = [α , β ] = I1 = I2 . Wir definieren jetzt eine Abbildung
φ : I → M(n × n; R) durch
{
φ1 (2t − α ) für α 6 t 6 α +2 β ,
φ (t) :=
φ2 (2t − β ) für α +2 β 6 t 6 β .
Die Abbildung φ ist wohldefiniert und stetig, da
φ1 (2 · α +2 β − α ) = φ1 (β ) = B = φ2 (α ) = φ2 (2 · α +2 β − β )
gilt und φ1 bzw. φ2 stetig sind. Da für alle t ∈ I die Matrizen φ1 (t) und φ2 (t)
invertierbar sind, folgt φ (t) ∈ GL (n; R) für alle t ∈ I.
Ferner gilt
φ (α ) = φ1 (2α − α ) = A und φ (β ) = φ2 (2β − β ) = C ,
also ist φ ein Weg von A nach C.
Anschaulich werden beim Durchlaufen des Weges φ die Wege φ1 und φ2
nacheinander mit doppelter Geschwindigkeit durchlaufen.
Wege zwischen zwei Punkten eines Raumes werden vor allem in der Topologie
verwendet. Mit ihrer Hilfe kann untersucht werden, ob ein topologischer Raum
T wegzusammenhängend ist oder nicht (vgl. [C-V], Section 2.C. bzw. [O], Ab-
schnitte 1.2 und 2.3), d.h. ob zwischen zwei beliebigen Punkten aus T ein Weg
existiert. Nach Lemma 2 aus 3.4.4 ist GL (n; R) nicht wegzusammenhängend,
wohingegen die topologischen Räume M(n × n; R) und GL (n; C) nach den Auf-
gaben 4 und 5 wegzusammenhängend sind.
218 3 Determinanten
3. Die Behauptung folgt aus dem Beweis von Satz 2.7.3, indem man den letz-
ten Schritt der Normierung der Diagonalelemente weglässt, zusammen mit der
Bemerkung am Ende von Abschnitt 2.7.4.
4. Zunächst müssen wir klären, was Verbindbarkeit in der Menge M(m × n; R)
bedeutet. Dazu seien A, B ∈ M(m × n; R). Unter einen Weg von A nach B verste-
hen wir eine stetige Abbildung
( )
φ : I → M(m × n; R) , t 7→ φ (t) = φi j (t) ,
wobei I = [α , β ] ⊂ R ein Intervall ist, mit φ (α ) = A und φ (β ) = B. Die Stetigkeit
von φ bedeutet dabei wie in Abschnitt 3.4.4, dass alle Abbildungen φi j : I → R
stetig sind. Im Unterschied zu Abschnitt 3.4.4 muss hier jedoch keine Matrix
φ (t) ∈ M(m × n; R) invertierbar sein; das ist für nichtquadratische Matrizen oh-
nehin nicht möglich.
Die Matrizen A und B heißen verbindbar, wenn ein Weg von A nach B exis-
tiert.
Es seien nun A = (ai j ) und B = (bi j ) zwei Matrizen aus M(m × n; R). Wir
definieren zu jedem Paar (i, j) eine stetige Abbildung
φi j : [0, 1] → R mit φi j (0) = ai j und φi j (1) = bi j
durch
φi j (t) := (1 − t) · ai j + t · bi j .
( )
Damit wird durch φ := φi j ein Weg von A nach B definiert.
5. Wir zeigen in Analogie zu Lemma 3 aus 3.4.4:
Bild 3.1
det(A) = 1 , det(B) = 40 ,
det(C) = −3 , det(D) = −192 ,
det(E) = −2999 , det(F) = −6 ,
det(G) = 5 , det(H) = −9 ,
det(I) = 288 (Vandermonde, s. 3.2.7), det(J) = 1 ,
det(K) = 91 + i , det(L) = −117 + 141i ,
det(M) = −38 + 44i , det(N) = 16 − 56i ,
det(O) = 2i .
Kapitel 4
Eigenwerte
mit
( ) ( )
(n+1) 1 1 1 1 1
pii = (−1)n · + · 0 + 3 · · (−1)n−1 · +
( 4·3 n−1 4) 3 4·3n 4
1 1
= (−1) n−1
· + ,
4 · 3n 4
4.2 Das charakteristische Polynom 223
und ( ) ( )
(n+1) 1 1 1 1 1 1
pi j = · (−1)n · + + 2 · · (−1) n−1
· +
3 4 · 3n−1 4 3 4 · 3n 4
1 1 2 1
= (−1) · n
+ + (−1) n−1
· +
4 · 3n ( 12 ) 4 · 3n+1 6
1 1 1
= (−1)n−1 · − +
4 · 3n 3 4
1 1
= (−1)n · + für i ̸= j.
4 · 3n+1 4
Hiermit ergibt sich
(n)
Pn − A = (pi j )16i, j64 mit
(n) 1
pii = (−1)n · und
4 · 3n−1
(n) 1
pi j = (−1)n−1 · ,
4 · 3n
woraus (n)
lim p =0 ∀ 1 6 i, j 6 4
n→∞ i j
folgt. Damit gilt ( )
1 1 1 1
lim π0 · P = π0 · A = , , , = π,
n→∞ 4 4 4 4
was zu zeigen war.
c) Dass es sich bei π um einen Eigenvektor von P zum Eigenwert 1 handelt, lässt
sich mithilfe einer simplen Rechnung bestätigen.
3. Wegen PF (t) = det(A − t · En ) gilt PF (0) = det A, daher ist nach Bemerkung
3.4.1 PF (0) ̸= 0 gleichbedeutend mit der Surjektivität von F. Ist V endlichdimen-
sional, so ist dies nach Korollar 3 aus 2.2.4 äquivalent dazu, dass F ein Isomor-
phismus ist.
4. Wir führen Induktion über n. Der Induktionsanfang ist trivial. Betrachten wir
−t 0 · · · 0 −α 0
1 −t . . . .. . .
..
. .
PA (t) = det 1 .. 0 .
. ,
. . . −t
−αn−2
0 1 −αn−1 − t
so erscheint eine Entwicklung nach der ersten Zeile sinnvoll. Dies ergibt
−t 0 · · · 0 −α1
1 −t . . . .. . .
..
. .
PA (t) = (−t) · det 0 1 . . 0 .
.
.. . . . . . .
. −t αn−2
0 ··· 0 1 −αn−1 − t
1 −t 0
.. ..
. .
+ (−1)n · α0 · det .
. . . −t
0 1
Die Determinante der zweiten Matrix ist 1, und auf die erste Matrix können wir
die Induktionsannahme anwenden, womit wir
( )
PA (t) = (−t) · (−1)n−1 t n−1 + αn−1t n−2 + . . . + α1 + (−1)n · α0
( )
= (−1)n t n + αn−1t n−1 + . . . + α1t + α0
erhalten, was zu zeigen war.
2
5. Wir fassen die Abbildung Φ als Endomorphismus des K n auf; die Koordina-
ten werden dabei wie folgt durchnummeriert:
t
(x11 , . . . , xn1 , x12 , . . . , xn2 , . . . , xnn ) .
Die Matrix B lautet damit B = t (b11 , . . . , bn1 , b12 . . . , bn2 , . . . , bnn ), und die Ab-
bildung Φ kann als (n2 × n2 )-Matrix geschrieben werden. Für die Einträge von
( ) 2
Φ(B)i j ∈ K n folgt damit
n
Φ(B)i j = ∑ ail bl j .
l=1
226 4 Eigenwerte
E2. Wir beginnen mit der Matrix A. Hier ergibt sich für das charakteristische
Polynom
( )
1−t −1
PA (t) = det(A − t · E2 ) = det
2 −1 − t
= (1 − t)(−1 − t) + 2
= t2 + 1 .
PA (t) = t 2 + 1 besitzt in R keine Nullstellen, also existiert kein Eigenwert und
damit auch kein Eigenvektor von A über den reellen Zahlen. Über den komplexen
Zahlen gilt PA (t) = (t + i)(t − i), womit sich die Matrizen
( )
1−i −1
A1 = A − i · E2 = für t = i
2 −i − 1
und ( )
1+i −1
A2 = A + i · E3 = für t = −i
2 −1 + i
ergeben.
4.3 Diagonalisierung 227
Wir beginnen mit der Berechnung für A1 und bestimmen den Kern. Es ergibt
sich ( ) ( )
1−i −1 1 − i −1
; .
2 −i − 1 0 0
( )
1
Ein Eigenvektor zum Eigenwert i ist damit gegeben durch 1−i . Es handelt sich
um eine Basis des Eigenraums.
Für A2 gilt ( ) ( )
1+i −1 1 + i −1
;
2 −1 + i 0 0
( )
1
und eine Basis des Eigenraums ist gegeben durch 1+i . Die beiden Einheits-
vektoren bilden auch eine C-Basis des C2 , d.h. A ist über C diagonalisierbar.
Das charakteristische Polynom der Matrix B ist gleich
( )
3 − t −1
PB (t) = det(B − t · E2 ) = det
1 1−t
= (3 − t)(1 − t) + 1
= t 2 − 4t + 4 = (t − 2)2 .
Der einzige Eigenwert über R ist t = 2. Über C existiert kein weiterer Eigenwert,
daher betrachten wir hier lediglich die reellen Zahlen. Es gilt
( ) ( )
1 −1 1 −1
B1 = B − t · E2 = ; .
1 −1 0 0
Ein
( )Eigenvektor und damit eine Basis des Eigenraums zum Eigenwert 2 ist daher
1
1 . Dieser Einheitsvektor ist keine Basis des R .
2
4.3 Diagonalisierung
Bevor wir beginnen, charakteristische Polynome sowie deren Nullstellen und Eigen-
räume zu berechnen, schicken wir eine Bemerkung vorweg, die uns das Leben in den
Aufgaben 1 bis 3 erleichtern wird:
Zur Beurteilung der Diagonalisierbarkeit eines Endomorphismus müssen wir wegen
1 6 dim Eig (A; λ ) 6 µ (PA ; λ ) die Dimension der Eigenräume nur für mehrfache Null-
stellen des charakteristischen Polynoms bestimmen, da für einfache Nullstellen λ von
PA die Beziehung dim Eig (A; λ ) = µ (PA ; λ ) automatisch erfüllt ist.
1. Nach der obenstehenden Bemerkung ist für
PF (t) = ±(t − λ1 ) · . . . · (t − λn )
mit paarweise verschiedenen λi insbesondere dim Eig (F; λi ) = µ (PF , µ ) = 1 für
alle i = 1, . . . , n, d.h. die Voraussetzung für Theorem 4.3.3 ii) ist erfüllt.
228 4 Eigenwerte
Für b ∈ R r {−3, 2} hat PAa,b (t) für alle a ∈ R drei verschiedene Nullstellen und
ist daher nach Satz 4.3.1 diagonalisierbar.
Ist b = −3, so lautet PAa,−3 (t) = (−3 − t)2 (2 − t), und wir bestimmen nach
dem System von Aufgabe 2 den Rang der Matrix
( ) ( )
0 0 0 2 0 1
Aa,−3 + 3E3 = 2a 0 a ; 0 0 0 ,
10 0 5 0 0 0
der für alle a stets 1 beträgt. Dann gilt
( )
dim Eig (Aa,−3 ; −3) = 2 = µ PAa,−3 ; −3 ,
und A ist nach Theorem 4.3.3 diagonalisierbar.
Es bleibt der Fall b = 2. Hier gilt PAa,2 (t) = (−3 −t)(2 −t)2 , daher bestimmen
wir dim Eig (Aa,2 ; 2) in Abhängigkeit von a:
( ) ( )
−5 0 0 1 0 0
Aa,2 − 2E3 = 2a 0 a ; 0 0 a .
10 0 0 0 0 0
Für a = 0 ist rang (A0,2 − 2E3 ) = 1, d.h. dim Eig (A0,2 ; 2) = 2 = µ (PA0,2 ; 2), und
A0,2 ist diagonalisierbar. Ist a allerdings von null verschieden, so gilt
Eig (Aa,2 ; 2) = span t (0, 1, 0), und Aa,2 ist nicht diagonalisierbar.
Wir fassen zusammen: Aa,b ist nur dann nicht diagonalisierbar, wenn b = 2
und a ̸= 0 ist.
4. Wie bereits in 4.3.5 berechnet, lautet das charakteristische Polynom von A
PA (λ ) = λ 2 + 2µλ + ω 2 .
a) Für den Fall µ > ω lauten die Nullstellen von PA (t)
√ √
λ1 = −µ + µ 2 − ω 2 und λ2 = −µ − µ 2 − ω 2 .
Wir berechnen zunächst ( )
−λ 1 1
Eig (A; λ1 ) = Ker (A − λ1 E2 ) = Ker
−ω −2µ − λ1
2
( )
0 0
= Ker = span t (1, λ1 ) ,
−ω 2 λ2
wobei wir λ1 · λ2 = ω 2 und λ1 + λ2 = −2µ benutzt haben.
Für den zweiten Eigenraum berechnen wir analog
( )
0 0
Eig (A; λ2 ) = Ker (A − λ2 E2 ) = Ker = span t (1, λ2 ) .
−ω 2 λ1
Eine Basis des R2 aus Eigenvektoren von A ist damit gegeben durch
( )
B = t (1, λ1 ), t (1, λ2 ) ,
230 4 Eigenwerte
also ( )
−µ t cos(γ t)
re v = e
−µ cos(γ t) − γ sin(γ t)
und ( )
sin(γ t)
im v = e−µ t .
γ cos(γ t) − µ sin(γ t)
Die allgemeine
( ( Lösung von (∗) hat somit
) die
( Form ))
− µ cos(γ t) sin(γ t)
e t α1 + α2 ,
−µ cos(γ t) − γ sin(γ t) γ cos(γ t) − µ sin(γ t)
und y0 (0) = α und y1 (0) = β bedeuten
α1 = α , −µα1 + γα2 = β .
Die Lösung dieses Gleichungssystems lautet
β + µα
α1 = α und α2 = .
γ
5. Als erstes berechnen wir die charakteristischen Polynome der beiden Matri-
zen. Sie lauten
PA (t) = (t + 2)(t − 1)(t − 2)2 und PB (t) = (t + 2)(t + 1)(t − 1)2 .
Die Eigenvektoren müssen nun (insbesondere zu den doppelt auftretenden Ei-
genwerten) so gewählt werden, dass sie stets Eigenvektoren von beiden Matrizen
sind. Wir ermitteln
Eig (A; −2) = span t (1, 3, −1, 1) , Eig (B; −2) = span t (1, 1, 0, 1) ,
Eig (A; 1) = span t (1, 0, 1, 0) , Eig (B; −1) = span t (1, 3, −1, 1) ,
t
Eig (A; 2) = span ( (1, 1, 1, 0), Eig (B; 1) = span (t (1, 1, 1, 0),
t (0, 0, −1, 1)) , t (1, 0, 1, 0)) .
Ein Basiswechsel für Eig (A; 2) führt zum gewünschten Ergebnis, nur Vektoren
zu verwenden, die Eigenvektoren beider Matrizen sind. Wir wählen daher
Eig (A; 2) = span (t (1, 1, 1, 0), t (1, 1, 0, 1)),
denn t (0, 0, −1, 1) = − t (1, 1, 1, 0) + t (1, 1, 0, 1), siehe Austauschlemma 1.5.4.
Die Eigenvektoren, die die Spalten von S−1 bilden sollen, sind nun noch in eine
Reihenfolge zu bringen, die gewährleistet, dass in den Diagonalmatrizen SAS−1
und SBS−1 gleiche Eigenwerte nebeneinander stehen. Wir wählen
1 1 1 1 1 0 −1 −1
3 0 1 1 3 −1 −2 −2
S−1 = −1 1 1 0 , dann ist S = −2 1 2 1 ;
1 0 0 1 −1 0 1 2
sie liefern das gewünschte Ergebnis.
232 4 Eigenwerte
diesem Fall
PA (t) = t 2 − a2 − cb
mit den Nullstellen √
t1,2 = ± a2 + cb = ±1 .
Nach Satz 4.3.1, Teil 2) ist(A diagonalisierbar.
) Daraus folgt die Existenz eines
−1 1 0
S ∈ GL(2; K) mit S AS = = D, also gilt SDS−1 = A.
0 −1
9. Es seien λ1 , . . . , λn die Eigenwerte von F, und A = (v1 , . . . , vn ) sei eine Basis
aus den zugehörigen Eigenvektoren. Für vi , v j ∈ A mit i ̸= j ist
vi + v j ̸= 0, daher gibt es ein λ mit F(vi + v j ) = λ (vi + v j ), und es gilt
λi vi + λ j v j = F(vi ) + F(v j ) = F(vi + v j ) = λ (vi + v j ) = λ vi + λ v j .
Da vi und v j linear unabhängig sind, ist die Darstellung eines jeden Vektors in
span (vi , v j ) eindeutig, also folgt λ = λi = λ j . Dies gilt für alle 1 6 i, j 6 n, daher
ist λ der einzige Eigenwert von F.
n
Sei nun 0 ̸= v = ∑ µi vi ∈ V beliebig. Dann gilt
i=1
n n n
F(v) = ∑ µi · F(vi ) = ∑ µi · λ · vi = λ ∑ µ i vi = λ · v ,
i=1 i=1 i=1
d.h. F = λ · id.
10. Da t ein Teiler der Ordnung 1 von PA (t) ist, gilt rang A = 2, d.h. die Spalten
von A sind linear abhängig.
Andererseits ist 0 kein Eigenwert von B, das heißt Ker B = (0) und B hat Rang
3, ist also invertierbar.
Da bei der Multiplikation einer Matrix A mit einer invertierbaren Matrix B der
Rang des Produktes AB gleich dem Rang der Matrix A ist (vgl. Hilfssatz 2.6.6),
folgt
rang AB = rang A = 2 und dim Ker AB = 3 − rang AB = 1 .
( )
Damit erhalten wir vn = An v0 = aan+1
n
, und die F IBONACCI-Zahl an können
wir ohne Rekursionsformel berechnen
[( durch
√ )n ( √ )n ]
1 1+ 5 1− 5
an = √ − .
5 2 2
4.4 Trigonalisierung∗
1. Nehmen wir an, es gibt ein solches P ∈ Q[t]. Dann gibt es ein 1 6 m 6 n − 1
mit
P(t) = α0t m + α1t m−1 + . . . + αm .
In C[t] gibt es eine Zerlegung
n ( √ )
tn − 2 = ∏ t − 2 · ζ j ,
n
j=1
2π i
wobei ζ := e n ·j eine n-te Einheitswurzel ist, und diese Zerlegung ist bis auf
Einheiten eindeutig. Für jedes P mit den gewünschten Voraussetzungen müssen
daher 1 6 j1 < . . . < jm 6 n und α ∈ Q existieren mit
jm ( √ )
P(t) = α ∏ t − 2 · ζ j ,
n
j= j1
woraus m
l = ∑ ji
m
αm = α · (−1)m · 2 n · ζ l mit
i=1
folgt. Da alle nichtkomplexen Einheitswurzeln 1 oder −1 sind, muss für αm ∈ Q
m
notwendig 2 n ∈ Q gelten. Dies ist nun zu widerlegen.
m
Der Beweis√für die Irrationalität von 2 n wird analog zum Beweis der Irra-
m
tionalität von 2 geführt. Nehmen wir also an, es wäre 2 n ∈ Q, dann gibt n
es
m
teilerfremde Zahlen p, q ∈ Z mit 2 = q . Daraus folgt jedoch 2m = qpn , was
n
p
äquivalent zu qn · 2m = pn ist. Da 2 prim ist, ist 2 ein Teiler von p, d.h. es gibt
ein r ∈ Z mit p = 2r. Damit folgt jedoch qn 2m = rn 2n , und wegen n > m folgt
daraus qn = 2n−m rn , d.h. 2 ist ein Teiler von q, weil 2 prim ist. Damit haben p
und q einen gemeinsamen Primteiler, was der Voraussetzung widerspricht.
m
Wir haben gezeigt, dass 2 n für alle m, n ∈ N mit m < n irrational ist, da-
her ist αm für alle m irrational, und t n − 2 kann keinen Teiler P ∈ Q[t] mit
1 6 deg P 6 n−1 besitzen. Ein Polynom wie dieses, das nicht das Produkt zweier
Polynome kleineren Grades ist, heißt irreduzibel.
236 4 Eigenwerte
verfahren wir wie im ersten Teil der Aufgabe. Die sich dabei ergebenden Matri-
zen S1 und S2 sind exakt dieselben wie im obigen Beispiel, und die Matrix
( )
−2 1 −4
−1
B3 := S2 · B1 · S2 = 0 −2 −1
0 0 −2
ist eine obere Dreiecksmatrix.
3. Der Induktionsanfang ist schnell behandelt, denn für dimV = 0, 1 gilt
F = 0 für alle nilpotenten Endomorphismen.
Nun kommen wir zum Induktionsschritt. Ist F = 0, so sind wir fertig. An-
dernfalls gilt dim F(V ) < dimV für einen nilpotenten Endomorphismus F, mit
anderen Worten Ker F ̸= 0 und 0 ist Eigenwert. (0 ist sogar einziger Eigenwert,
vgl. Aufgabe 1 zu 4.1.) Sei 0 ̸= v1 ∈ Ker F. Wir ergänzen v1 zu einer Basis
B ′ = (v1 , w2 , . . . , wn ) von V ; es gilt dann
0 a12 · · · a1n
..
.
MB′ (F) = . .
.. B
0
Da W := span (w2 , . . . , wn ) im Allgemeinen nicht F-invariant ist, definieren wir
wie im Beweis des Trigonalisierungssatzes 4.4.3 die linearen Abbildungen
H(w j ) = a1 j v1 und G(w j ) = a2 j w2 + . . . + an j wn .
Dann gilt F(w) = H(w) + G(w) für alle w ∈ W , und bezüglich der Basis B̃ ′ =
(w2 , . . . , wn ) gilt B = MB̃′ (G). Ferner gilt Im H ⊂ Ker F und G ist nilpotent, denn
wegen der Nilpotenz von F gilt für alle w ∈ W
0 = F k (w) = F k−1 (F(w))
= F k−1 (H(w) + G(w)) (= F k−1)(λ v1 + G(w))
= F k−1 (G(w)) = F k−2 G2 (w) = . . . = Gk (w) .
Wegen dimW = dimV − 1 können wir auf G die Induktionsvoraussetzung an-
wenden, d.h. es gibt eine Basis B̃ = (v2 , . . . , vn ) von W , so dass
0 ∗
MB̃ (G) = ..
. .
0 0
Damit folgt für die Basis B = (v1 , . . . , vn ) von V
0 ∗
MB (F) = ..
. und PF (t) = (−1)nt n .
0 0
238 4 Eigenwerte
Mit etwas mehr Wissen über Algebra kann der Beweis deutlich gekürzt wer-
den. Im Zerfällungskörper K̃ (siehe [W], Abschnitt 6.2) des charakteristischen
Polynoms PF hat dieses mit Hilfe von Aufgabe 1 zu Abschnitt 4.1 die Form
PF (t) = (−1)nt n , und mit dem Trigonalisierungssatz 4.3.3 folgt die Behauptung.
4. Wegen µ = ω gilt
( )
0 1
A1 := A = .
−µ 2 −2µ
Weil PA (t) = (t + µ )2 in Linearfaktoren zerfällt, ist A nach 4.4.3 trigonalisierbar.
Dass A nicht diagonalisierbar ist, wurde bereits in 4.3.5 gezeigt.
v1 = (1, −µ ) ist Eigenvektor zum Eigenwert λ1 = −µ , und mit j1 = 1 bestimmen
wir B2 = (v1 , e2 ), womit
( ) ( )
1 0 1 0
S−1 = und S =
−µ 1 µ 1
und damit ( )
−µ 1
B := S · A · S−1 =
0 −µ
folgt.
Mit der Substitution z := Sy geht das System ẏ = Ay über in
B · z = SAS−1 · Sy = SAy = Sẏ = ż .
Aus der zweiten der beiden Gleichungen
ż0 = −µ z0 + z1 und ż1 = 0z0 − µ z1
folgt zunächst z1 = a · e− µ t mit a ∈ R. Im Fall a = 0 ist ż0 = −µ z0 , eine
von 0 verschiedene Lösung dieser Gleichung ist gegeben durch z0 = b · e−µ t mit
b ∈ R r 0. Für z1 = e−µ t , d.h. a = 1, gilt ż0 = −µ z0 + e−µ t . Mit Hilfe der Me-
thode der Variation der Konstanten (siehe [Fo2], §11) folgt daraus z0 = t · e−µ t .
Insgesamt erhalten wir die beiden linear unabhängigen Lösungen t (e−µ t , 0) und
t (t · e−µ t , e−µ t ), die ein Fundamentalsystem bilden. Aus diesen beiden Lösungen
des Systems ż = Bz erhalten wir durch die Transformation mit S−1 Lösungen des
Systems ẏ = Ay, denn aus z = Sy folgt S−1 z = y. Damit folgt
( −µ t ) ( )
e 1
S−1 = e− µ t
0 −µ
und ( ) ( )
t · e− µ t t
S−1 − µ = e−µ t , (∗)
e t −µ t + 1
4.5 Potenzen eines Endomorphismus∗ 239
Dann ist
1 0 0 0 1 0 0 0
0 1
− 16
1
−2 0 4 2 1
T =
0
4 und T −1 = ,
0 1
8 3 0 0 8 −12
1
0 0 0 2 0 0 0 2
was
1 1 0 0
0 1 1 0
−1
T AT =
0 0 1 0
0 0 0 −1
liefert.
ii) Die Matrix
2 3 3 1 8
2 7 2 8
2 5 4 =: B
−1 −4
−1
hat (wegen ihrer Dreiecksform leicht einsehbar) das charakteristische Polynom
PB (t) = −(t − 2)3 (t + 1)2 ;
sie hat daher die Eigenwerte 2 und −1. Wir berechnen den Kern der Matrix
0 3 3 1 8 0 0 0 0 0
0 7 2 8 1 0 0 0
B − 2E5 = 0 5 4 ; 1 0 0 ,
−3 −4 1 0
−3 1
der von t (1, 0, 0, 0, 0) aufgespannt wird. Da der Eigenwert 2 jedoch die Viel-
fachheit 3 hatte, was man am charakteristischen Polynom ablesen kann, müssen
wir noch zwei Hauptraumvektoren zum Eigenwert 2 bestimmmen. Dafür gibt es
verschiedene Rechenmöglichkeiten. Wir bestimmen eine Lösung des LGS
(B − 2E5 ) · x = t (1, 0, 0, 0, 0) ,
( )
also zum Beispiel x = t 0, 13 , 0, 0, 0 , als ersten Hauptraumvektor. Dieses Vor-
gehen ist korrekt, weil damit B · x = 2 · x + 1 · t (1, 0, 0, 0, 0) gilt, was wunsch-
gemä gerade den Einträgen in einer Spalte der späteren Jordanschen Normalform
entspricht. Den zweiten Hauptraumvektor errechnen wir genauso als Lösung des
LGS ( )
(B − 2E5 ) · y = t 0, 31 , 0, 0, 0 ,
eine Möglichkeit ist y = t (0, − 21
1 1
, 21 , 0, 0).
244 4 Eigenwerte
Mit dem Eigenwert −1 verfahren wir ganz genauso. Als Basis des Kerns der
Matrix
3 3 3 1 8 3 3 3 1 0
3 7 2 8 3 7 2 0
B + E5 = 3 5 4 ; 3 5 0
0 −4 0 1
0 0
ergibt sich der Eigenvektor t (17, −29, 15, −9, 0). Der zugehörige Hauptraum-
vektor ist eine Lösung des LGS
(B + E5 ) · z = t (17, −29, 15, −9, 0) .
( )
z = 18, − 3 , 2, 0, 4 ist eine mögliche Lösung.
t 61 9
2. Wir wählen die Bezeichnungen wie in Beispiel 4.6.8 und stellen ein weiteres
Verfahren zu dem aus Aufgabe 1 zur Ermittlung der Transformationsmatrix und
der Jordanschen Normalform vor.
i) Für die Matrix ( )
0 2 2
A := 0 0 2 ist PA (t) = −t 3 .
0 0 0
4.6 Die Jordansche Normalform∗ 245
Einziger Eigenwert von A ist somit 0, was nach Aufgabe 1 zu Abschnitt 4.1 nicht
verwunderlich ist. Wir berechnen
( zunächst )die Potenzen von A:
0 0 4
A = 0 0 0 , A3 = (0) .
2
0 0 0
Daraus bestimmen wir
( )
U1 := Ker A = span t (1, 0, 0) ,
( )
U2 := Ker A2 = span t (1, 0, 0), t (0, 1, 0) .
Aus den Zerlegungen
R3 = U2 ⊕W3 = U1 ⊕W2 ⊕W3 = U0 ⊕W1 ⊕W2 ⊕W3
bestimmen wir dimW3 = dimW2 = dimW1 , d.h. s3 = 1, s2 = s1 = 0, was auch
wegen dim R3 = 3 = min{d ∈ N : Ad = 0} klar ist. Daher sind die Basisvektoren,
bzgl. derer die Abbildung A Jordansche Normalform hat, gegeben durch die drei
Vektoren ( ) ( )
2 4
e3 ∈ W3 , A · e3 = 2 ∈ W2 , A · e3 = 0 ∈ W1 .
2
0 0
Zur Probe bestimmen
( wir ) ( )
4 2 0 1 −1 0
T −1 = 0 2 0 und damit T= 1
4
0 2 0 ,
0 0 1 0 0 4
womit folgt ( )
0 1 0
TAT −1 = 0 0 1 ,
0 0 0
wie es sein muss.
Schließlich ist das Minimalpolynom nach dem Lemma von Fitting 4.6.2 ge-
geben durch MA (t) = t 3 .
ii) Wir betrachten die Matrix
1 −2 0 −1 2
1 −3 −1 0 3
B := 0 2 1 −1 −3
1 0 0 −1 −2
0 −1 0 0 2
zunächst als Endomorphismus des C5 . Das charakteristische Polynom zerfällt
in Linearfaktoren, es gibt also mit Vielfachheit gezählt genau fünf Eigenwerte.
Da jedoch B nilpotent ist, ist 0 der einzige Eigenwert von B, und daraus folgt
PB (t) = −t 5 ∈ C[t]. Alle Nullstellen sind reell, also gilt PB (t) = −t 5 auch für den
246 4 Eigenwerte
Eine Basis, bezüglich der B Jordansche Normalform hat, ist durch diese fünf
Vektoren gegeben. Wir wollen dies noch einmal explizit überprüfen. Es ist
2 2 0 −1 0 −3 5 3 0 0
2 3 0 0 0 2 −3 −2 0 0
T −1 = −1 −3 0 −1 0 ⇒ T = −1 1 1 0 1 ,
0 −2 0 −1 1 −3 4 2 0 0
1 2 1 0 0 1 −2 −2 1 0
woraus folgt
0 1 0 0 0
0 0 1 0 0 d = 3
−1
T BT = 0 0 0 0 0
}
0 0 0 0 1
d −1 = 2.
0 0 0 0 0
Die Linien begrenzen dabei die Jordan-Blöcke, d = min{l : Gk = 0}. Mit den
4.6 Die Jordansche Normalform∗ 247
Es ist
0 1 0 1 1 1 1 1 1 −3
0 1 1 −1 1 1 1 1 0 −2
S−1 = 0 1 1 0 0 , also S = −1 −1 0 0 2
1 0 1 0 1 0 −1 0 0 1
0 1 1 0 1 0 0 −1 0 1
sowie
2
2
SBS−1 = 1 1 .
0 1
1
Das Minimalpolynom von B lautet MB (t) = (t − 2)(t − 1)2 . Man kann an ihm die
Länge der gröten Jordanblöcke zum jeweiligen Eigenwert ablesen, siehe auch
Aufgabe 8 zu diesem Abschnitt.
4. a) Wir zeigen die Behauptung durch Induktion über m. Für m = 2 ist
(SAS−1 )2 = SAS−1 · SAS−1 = SA2 S−1 . Den Induktionsschritt beweisen wir mit
(∗)
(SAS−1 )m = (SAS−1 )(SAS−1 )m−1 = (SAS−1 )(SAm−1 S−1 ) = SAm S−1 ,
wobei bei (∗) die Induktionsannahme benutzt wurde.
b) Den Beweis kann man einerseits wie den Beweis des binomischen Lehrsatzes
(vgl. [Fo1], §1) durch Induktion über m führen, da dort lediglich die Kommuta-
tivität in R sowie x + y ∈ R und x · y ∈ R für x, y ∈ R ausgenutzt werden. Daher
gilt der binomische Lehrsatz in jedem kommutativen Ring mit Eins.
Auf dieser Grundlage geben wir einen Beweis an. Sind zwei Matrizen
A, B ∈ R := M(n × n; K) mit AB = BA gegeben, so betrachten wir den von A
und B in R erzeugten Unterring (Achtung: Nicht das von A und B erzeugte Ide-
al!). Dieser ist wegen AB = BA kommutativ, also gilt der binomische Lehrsatz,
woraus die Behauptung folgt.
c) Für die Matrix A ist PA (t) = −(t − 2)3 , wie man nach einer kurzen Rechnung
herausfindet. Wegen
dim Eig (A; 2) = 1 < 3 = µ (PA ; 2)
ist A nicht diagonalisierbar, aber trigonalisierbar. Die Matrix N := A − 2E3 ist
nilpotent mit N 3 = 0, also gilt Hau (A; 2) = Ker N 3 = R3 . Wir können daher
A = E3 (D + N)E3 wählen mit
( ) ( )
2 0 0 1 4 3
D := 0 2 0 und N := −1 −2 −1 .
0 0 2 1 2 1
Man bestimmt leicht DN = 2N = ND.
250 4 Eigenwerte
Für die Berechnung von A50 ist es vorteilhaft, dass S = E3 gilt. Zunächst er-
halten wir 50 ( )
50
A50 = (D + N)50 = ∑ Dk N 50−k .
k=0 k
Da N nilpotent ist mit l = 0 für alle l > 3, bleiben nur drei Summanden stehen:
(N ) ( ) ( )
50 50 50
A50 = D48 N 2 + D49 N + D50 N 0 .
48 49 50
Benutzen wir ferner N 0 = E3 sowie Dl = 2l · E3 , so erhalten wir
( ) ( )
0 2 2 1 4 3
A50
= 2 ·2
49·50 48
0 −2 −2 + 50 · 2 49
−1 −2 −1 + 250 E3
0 2 2 1 2 1
( )
52 1425 1375
= 2 49
−50 −1323 −1275 .
50 1325 1277
5. a) Wie wir bereits für die Lösung zu Aufgabe 4c) benutzt haben, gilt für eine
Diagonalmatrix D für alle k ∈ N
λ1 0 λ1k 0
D= ..
. ⇒ Dk =
..
.
.
0 λn 0 λnk
Hieraus folgtdirekt
m
lim ∑ k!1 λ1k 0
m→∞ k=0 eλ1 0
exp(D) = ... = ..
. .
m 0 e λn
0 lim ∑ λ
1 k
m→∞ k=0 k! n
b) Nach Aufgabe 4a) gilt für alle k ∈ N gerade (SAS−1 )k = SAk S−1 . Damit folgt
m m
1 1
exp(SAS−1 ) = lim ∑ (SAS−1 )k = lim ∑ SAk S−1
m→∞ k! m→∞ k!
( k=0 ) k=0
m
1 k −1
= S lim ∑ A S = S · exp(A) · S−1 .
k=0 k!
m→∞
alle Einträge von Cm für große m beliebig klein werden. Wir zeigen dies durch
geschickte Abschätzung der Einträge von Cm . Aus Aufgabe 4b) folgt
2m l m m
Cm = ∑ ∑ k!(l−k)!
1
Ak Bl−k − ∑ ∑ k!l!
1 k l
AB = ∑ 1 k1 l
k! A l! B .
l=0 k=0 k=0 l=0 k+l62m
k>m oder l>m
folgt a(m) 6 (n · a) · a(m−1) , und per Induktion erhalten wir a(m) 6 (n · a)m . Da
eine analoge Aussage für B gilt, folgt die Behauptung.
Die Abbildung exp : M(n × n; K) → GL (n, K) wird in der Theorie der Lie-
Algebren und Lie-Gruppen weiter verallgemeinert, vgl. [F-H], §8.3.
d) Aus PA (t) = −(t − 1)3 bestimmen wir zunächst
dim Eig (A; 1) = 1 < 3 = µ (PA ; 1) ,
also ist A zwar trigonalisierbar, nicht aber diagonalisierbar. Der Satz über die
Hauptraumzerlegung 4.6.1 ergibt ohne weitere Rechnung
dim Hau (A; 1) = dim Ker (A − E3 )3 = R3 .
Setzen wir ( )
2 0 −2
N := A − E3 = −2 −1 1 ,
2 1 −1
so erhalten wir eine Zerlegung A = E3 + N, wobei N nilpotent und E3 Diagonal-
matrix ist. Also können wir D = S = E3 wählen, was die weiteren Berechnungen
252 4 Eigenwerte
sehr übersichtlich macht. Die Bedingung DN = ND ist sofort klar, und unter
Berücksichtigung der Teile a) und c) folgt aufgrund von N 3 = 0
exp(A) = exp(D + N) = exp(D) · exp(N) = e · exp(N)
( )
( 1 0 1 1 1 2) 3 −1 −3
= e 0! N + 1! N + 2! N = e −2 1 2 .
2 0 −1
6. Nach 4.6.5 gilt sl = dimUl − dimUl−1 − dimWl+1 . Da Ul−1 ⊂ Ul ein Untervek-
torraum ist, können wir Satz 2.2.7 anwenden, woraus
dimUl − dimUl−1 = dim (Ul /Ul−1 )
folgt. Nach Konstruktion im Beweis von Theorem 4.6.5 gilt
Ul+1 = Ul ⊕Wl+1 , also dimUl+1 = dimUl + dimWl+1
bzw. nach Umformung dimWl+1 = dimUl+1 − dimUl . Aus Ul ⊂ Ul+1 folgt mit
erneuter Anwendung von Satz 2.2.7 dimWl+1 = dim (Ul+1 /Ul ). Insgesamt gilt
daher
sl = dimUl − dimUl−1 − dimWl+1 = dim (Ul /Ul−1 ) − dim (Ul+1 /Ul ) .
7. Teil a) ergibt sich durch simple Rechnung, vgl. auch Aufgabe 4 zu 2.6.
b) Nach Definition 2.6.7 heißen zwei Matrizen A, B ∈ M(n × n; K) ähnlich, wenn
ein S ∈ GL (n; K) existiert mit B = SAS−1 . Bezüglich einer beliebigen Basis B
betrachten wir das kommutative Diagramm
MB (F) - n
Kn K
@ Φ B ΦB
@
R
V - V
F
S = MB (H) H H MB (H) = S
? ?
G-
V V
? I ?
@
Φ B Φ B-@ n
Kn K
MB (G)
Aus diesem lesen wir sofort ab, dass die Existenz eines Isomorphismus H mit
G = H ◦ F ◦ H −1 gleichbedeutend zur Existenz einer Matrix
S = MB (H) ∈ GL (n; K) mit MB (G) = S · MB (F) · S−1
ist. Das zeigt die Äquivalenz von i) und ii).
ii) ⇒ iii): Sei B eine Basis, bezüglich der MB (G) Jordansche Normalform
hat. Nach ii) existiert ein S ∈ GL (n; K) mit MB (G) = S · MB (F) · S−1 . Sei A die
Basis, die von den Spalten von S−1 gebildet wird. Dann gilt MB (G) = MA (F),
und F und G haben dieselbe Jordansche Normalform.
4.6 Die Jordansche Normalform∗ 253
iii) ⇒ i): Einer anderen Anordnung der Jordanblöcke längs der Diagonale ent-
spricht eine Permutation der Basis. Also sind die zugehörigen Endomorphismen
ähnlich.
8. Ist Vi := Hau (F; λi ) und Gi := (F − λi idV )|Vi , so ist nach dem Lemma von
Fitting 4.6.2 MGi = t di , d.h. nach Definition von Gi gilt MF|V = (t − λi )di . Wegen
i
V = V1 ⊕ . . . ⊕Vk folgt daraus jedoch sofort
MF = MF|V · . . . · MF|V = (t − λ1 ) · . . . · (t − λk )dk .
d1
1 k
Falls die Vorzeichen der Skalarprodukte ⟨w, w′ ⟩ und ⟨w̃, w̃′ ⟩ übereinstimmen, so
stimmen auch die Quotienten in (∗) überein, und damit auch die arccos-Werte,
somit gilt ^(w, w′ ) = ^(w̃, w̃′ ).
Falls ⟨w, w′ ⟩ und ⟨w̃, w̃′ ⟩ unterschiedliche Vorzeichen haben, wird es etwas
komplizierter. Ist ⟨w, w′ ⟩ > 0 und ⟨w̃, w̃′ ⟩ < 0, so gilt nach der Definition
^(w, w′ ) = ^(−w̃, w̃′ ); falls ⟨w, w′ ⟩ < 0, so folgt ⟨w̃, w̃′ ⟩ > 0 und damit
^(w̃, w̃′ ) = ^(−w, w′ ).
Die Behauptung 0 6 ^(L, L′ ) 6 π2 ist klar aufgrund der Definition des Winkels.
4. a) Für alle x, y ∈ L gibt es eindeutige Zahlen λ1 , λ2 ∈ R, so dass
x = v + λ1 w und y = v + λ2 w ,
also
x − y = (λ1 − λ2 )w .
Wenn wir zeigen können, dass
⟨s, w⟩ = 0 ⇔ ⟨s, λ w⟩ = 0 für alle λ ∈ R ,
so ist die Behauptung gezeigt. Letzteres folgt aber aus
s ⊥ w ⇔ ⟨s, w⟩ = 0 ⇔ ⟨s, λ w⟩ = λ ⟨s, w⟩ = 0 für alle λ ∈ R .
b) Nach Definition 0.2.4 gilt (a1 , a2 ) ̸= (0, 0). Im Fall a1 ̸= 0 (den Fall
a2 ̸= 0 rechnet
( man ) analog) ist nach 0.2.4 eine mögliche Wahl für L = v + Rw
durch v = ab1 , 0 und w = (−a2 , a1 ) gegeben, und w ist bis auf ein skalares
Vielfaches λ ̸= 0 eindeutig bestimmt. Damit folgt
⟨(a1 , a2 ), λ w⟩ = ⟨(a1 , a2 ), λ (−a2 , a1 )⟩ = λ (−a1 a2 + a1 a2 ) = 0 ,
also (a1 , a2 ) ⊥ L.
c) Es ist keineswegs klar, dass man d(u, L) = min{∥x − u∥ : x ∈ L} definieren
kann; eigentlich ist das Infimum zu wählen. Aufgrund der Vollständigkeit der
reellen Zahlen existiert das Minimum und kann somit direkt in der Definition
auftauchen.
Für jedes x ∈ L existiert ein eindeutiges λ0 ∈ R, so dass x = v + λ0 w gilt. Nun
rechnen wir
a)
(x − u) ⊥ L ⇔ (x − u) ⊥ w ⇔ ⟨x − u, w⟩ = 0
⇔ ⟨v + λ0 w − u, w⟩ = 0
⇔ ⟨v, w⟩ + λ0 ∥w∥2 − ⟨u, w⟩ = 0
⟨u, w⟩ − ⟨v, w⟩
⇔ = λ0 .
∥w∥2
Also ist das x = v + λ0 w mit diesem λ0 eindeutig mit (x − u) ⊥ L.
256 5 Euklidische und unitäre Vektorräume
Bild 5.1
Die letzte Gleichung folgt unmittelbar aus der soeben bewiesenen durch Ein-
setzen von s = (a1 , a2 ) unter Berücksichtigung von v ∈ L.
5. a) ⇒“: Ist s orthogonal zu H, so ist für alle x, y ∈ H gerade ⟨s, x − y⟩ = 0.
”
Insbesondere gilt xi = v + 2wi ∈ H sowie yi = v + wi ∈ H für i = 1, . . . , n − 1 und
damit
0 = ⟨s, xi − yi ⟩ = ⟨s, wi ⟩ , also s ⊥ wi für i = 1, . . . , n − 1 .
” i=1 λi wi ∈ H und
⇐“: Ist s ⊥ wi für i = 1, . . . , n − 1, so gilt für alle x = v + ∑n−1
i=1 µi wi ∈ H
y = v + ∑n−1
n−1 n−1
⟨s, x − y⟩ = ⟨s, v + ∑ λi wi − v − ∑ µi wi ⟩
i=1 i=1
n−1 n−1
= ⟨s, ∑ (λi − µi )wi ⟩ = ∑ (λi − µi) ⟨s, w ⟩ = 0,
i=1 i=1
| {z i}
=0
also ist s orthogonal zu H.
b) Sind x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) aus H, so gilt
n n
⟨(a1 , . . . , an ), x⟩ = ∑ ai xi = b und ⟨(a1 , . . . , an ), y⟩ = ∑ ai yi = b
i=1 i=1
nach Voraussetzung. Daraus folgt jedoch
⟨(a1 , . . . , an ), x − y⟩ = b − b = 0
für alle x, y ∈ H. Damit steht (a1 , . . . , an ) senkrecht auf H.
c) Ist x ∈ H, so existieren eindeutige Zahlen λ1 , . . . , λn−1 ∈ R mit
x = v + λ1 w1 + . . . + λn−1 wn−1 . Ferner gilt unter Berücksichtigung von Teil a)
(x − u) ⊥ H ⇔ ⟨x − u, wi ⟩ = 0 für i = 1, . . . , n − 1 .
Setzt man für x die obige Darstellung ein, so ist dies gleichbedeutend mit
⟨v + λ1 w1 + . . . + λn−1 wn−1 − u, wi ⟩ = 0 für alle i = 1, . . . , n − 1 .
258 5 Euklidische und unitäre Vektorräume
also wegen ∥x− x̃∥ ̸= 0 insbesondere ∥x̃−u∥2 > ∥x−u∥2 , und aus der Monotonie
der Wurzel folgt
∥x̃ − u∥ > ∥x − u∥ .
Bild 5.2
5.1 Das kanonische Skalarprodukt im Rn 259
Die Menge L (R) ist ein Spezialfall der Menge L p (R) der p-fach integrier-
baren Funktionen mit p ∈ N r {0}, d.h. der Abbildungen, für die das Integral
∫
| f (t)| p dt existiert, und die Abbildung ∥ ∥ ist ein Spezialfall der Abbildungen
R
( )1
∫ p
∥ ∥ p : L p (R) → R , f 7→ | f (t)| p dt .
R
und daraus
x × (y × z) = (x2 (y1 z2 − y2 z1 ) − x3 (y3 z1 − y1 z3 ) ,
x3 (y2 z3 − y3 z2 ) − x1 (y1 z2 − y2 z1 ),
x1 (y3 z1 − y1 z3 ) − x2 (y2 z3 − y3 z2 ))
= ((x2 z2 + x3 z3 )y1 − (x2 y2 + x3 y3 )z1 ,
(x3 z3 + x1 z1 )y2 − (x3 y3 + x1 y1 )z2 ,
(x1 z1 + x2 z2 )y3 − (x1 y1 + x2 y2 )z3 )
= ((x2 z2 + x3 z3 )y1 − (x2 y2 + x3 y3 )z1 + x1 y1 z1 − x1 y1 z1 ,
(x3 z3 + x1 z1 )y2 − (x3 y3 + x1 y1 )z2 + x2 y2 z2 − x2 y2 z2 ,
(x1 z1 + x2 z2 )y3 − (x1 y1 + x2 y2 )z3 + x3 y3 z3 − x3 y3 z3 )
5.2 Das Vektorprodukt im R3 261
Bild 5.3
4. Die Lösung dieser Aufgabe befindet sich in der Lösung von Aufgabe 2 zu 0.3,
in der in Ermangelung einer festen Theorie mit den Komponenten der Vektoren
gerechnet wurde.
5. a) Ist L = E ∩ E ′ und U = W ∩ W ′ , so sind L und U parallele affine Räume.
Aus dimU = 1 folgt damit sofort L = u +U für alle u ∈ L, vgl. auch Bemerkung
2.3.2.
b) Wegen W ̸= W ′ ist w ̸= 0. Weiter gilt w ∈ W aufgrund von s ⊥ W und
w ⊥ s (vgl. Aufgabe 5 zu 5.1), und analog folgt w ∈ W ′ . Insgesamt gilt so-
mit w ∈ W ∩ W ′ = U. Da U ein Vektorraum ist, folgt sofort Rw ⊂ U. Aus
dimU = 1 = dim(Rw) folgt Rw = U.
Um eine Parameterdarstellung für den Schnitt von
E = (0, 2, 3) + R(3, 6, 5) + R(1, 7, −1)
und
E ′ = (−1, 3, 2) + R(8, 2, 3) + R(2, −1, −2)
zu bestimmen, berechnen wir zunächst die notwendigen Vektoren. Wir erhalten
e1 e2 e3
s = w1 × w2 = 3 6 5 = (−41, 8, 15) ,
1 7 −1
e1 e2 e3
s′ = w′1 × w′2 = 8 2 3 = (−1, 22, −12)
2 −1 −2
sowie
s × s′ = (−41, 8, 15) × (−1, 22, −12) = (−426, −507, −894) = w ,
und damit U = R · (−426, −507, −894).
5.2 Das Vektorprodukt im R3 263
wobei an der Stelle (∗∗) benutzt wurde, dass V ein R-Vektorraum und J ein
Endomorphismus ist. Weiter gilt
( ) ( )
λ · (µ · v) = λ · (x′ + iy′ ) · v = λ · x′ · v + y′ · J(v)
′ ′
= (x + iy) · x · v + (x + iy) · y · J(v)
= x · x′ · v + y · x′ · J(v) + x · y′ · J(v) + y · y′ · J 2 (v)
= (xx′ · v + (yx′ + xy′ ) · J(v) −) yy′ · v
= ((xx′ − yy′ ) + i(yx)′ + xy′ ) · v
= (x + iy)(x′ + iy′ ) · v = (λ · µ ) · v .
woraus jedoch wegen der linearen Unabhängigkeit von 1 und i über R sofort
x1 = . . . = xn = y1 = . . . = yn = 0
3. Die Eigenschaften B1 und B2 von s folgen direkt aus der Linearität der Ab-
bildungen F und G. Die Matrix ist ebenfalls leicht zu bestimmen:
( )
( ) a1 b1 a1 b2 a1 b3
MB (s) = s(ei , e j ) i, j = a2 b1 a2 b2 a2 b3 .
a3 b1 a3 b2 a3 b3
5.4 Bilinearformen und Sesquilinearformen 267
4. a) Wir berechnen
∥v + w∥2 + ∥v − w∥2 = ⟨v + w, v + w⟩ + ⟨v − w, v − w⟩
= ⟨v, v⟩ + 2⟨v, w⟩ + ⟨w, w⟩
+⟨v, v⟩ − 2⟨v, w⟩ + ⟨w, w⟩
= 2⟨v, v⟩ + 2⟨w, w⟩ = 2∥v∥2 + 2∥w∥2 .
√
b)∗ Für eine Norm ∥ ∥ mit der gewünschten Eigenschaft ∥v∥ = ⟨v, v⟩ muss für
zwei Vektoren v, w ∈ V gelten
∥v + w∥2 = ∥v∥2 + ∥w∥2 + 2⟨v, w⟩ .
Wir definieren daher
( )
⟨v, w⟩ := 1
2 ∥v + w∥2 − ∥v∥2 − ∥w∥2 .
Man beachte die Analogie zur Polarisierung 5.4.4.
Da die Norm ∥ ∥ die Parallelogramm-Gleichung erfüllt, gilt
2∥v + w∥2 − 2∥v∥2 − 2∥w∥2 = ∥v + w∥2 − ∥v − w∥2 ,
und damit folgt
( ) ( )
⟨v, w⟩ = 12 ∥v + w∥2 − ∥v∥2 − ∥w∥2 = 14 ∥v + w∥2 − ∥v − w∥2 .
Bestimmen wir für v = w das Skalarprodukt, so erhalten wir
( )
⟨v, v⟩ = 41 ∥v + v∥2 − ∥v − v∥2 = 41 · ∥2v∥2 = ∥v∥2 ,
wie es gefordert war.
Es seien v, v′ , w ∈ V . Wir berechnen
( )
⟨v + v′ , w⟩ = 14 ∥v + v′ + w∥2 − ∥v + v′ − w∥2
= 14 (∥v + v′ + w∥2 + ∥v − v′ − w∥2 − ∥v − v′ − w∥2
−∥v + v′ − w∥2 )
(∗) 1 ( )
= 4 2∥v∥2 + 2∥v′ + w∥2 − 2∥v − w∥2 − 2∥v′ ∥2
= 21 (∥v′ + w∥2 − ∥v′ ∥2 + ∥v∥2 − ∥v − w∥2
−∥v + w∥2 + ∥v + w∥2 )
(∗) 1 ( )
= 2 ∥v + w∥2 − ∥v∥2 − ∥w∥2 + ∥v′ + w∥2 − ∥v′ ∥2 − ∥w∥2
′
= ⟨v, w⟩ + ⟨v , w⟩ ,
wobei an den Stellen (∗) die Parallelogramm-Gleichung verwendet wurde.
Die Symmetrie von ⟨ , ⟩ ist klar, und die positive Definitheit folgt aus der
Eigenschaft N1 der Norm sowie ⟨v, v⟩ = ∥v∥2 für alle v ∈ V .
Es bleibt, ⟨λ v, w⟩ = λ ⟨v, w⟩ für alle v, w ∈ V und alle λ ∈ R zu zeigen. Dies ist
der schwierigste Teil der Aufgabe. Wir beginnen damit, die Aussage für λ ∈ N
per Induktion zu zeigen.
Für λ = 0 oder λ = 1 ist die Behauptung klar.
268 5 Euklidische und unitäre Vektorräume
wobei die beiden mit (∗) gekennzeichnete Relationen für jeden einzelnen Sum-
manden und damit für die gesamte Summe gelten. Dabei wurden die Dreiecks-
x+y
ungleichung für den Betrag sowie die Ungleichung 1+x x
6 1+x+y für alle x > 0
und alle y > 0 benutzt.
Nehmen wir an, es existiert eine Norm ∥ ∥ : V → R+ mit
∥ f − g∥ = d( f , g) für alle f , g ∈ C (R; R) ,
so gilt insbesondere
∞
∥f∥
∥ f ∥ = d( f , 0) = ∑ 2−k 1 + ∥ fk∥k
k=0
für alle f ∈ C (R; R). Wählen wir f = 1 und λ = 2, so gilt
∥λ · f ∥k = max {|λ · f (x)| : x ∈ [−k, k]} = 2 ,
womit folgt
∞ ∞
∥λ f ∥
∥λ · f ∥ = ∑ 2−k 1 + ∥λ fk∥k = ∑ 2−k 32
k=0 k=0
∞ ∞
∥ f ∥k
̸= 2 · ∑ 2−k 21 = 2 · ∑ 2−k = |λ | · ∥ f ∥ .
k=0 k=0 1 + ∥ f ∥k
6. Die Folgerungen i) ⇒ ii) und i) ⇒ iii) zeigen wir gleichzeitig. Ist v ∈ V , so gibt
es eine eindeutige Darstellung v = λ1 v1 + . . . + λr vr . Aus der Orthonormalität der
vi folgt unmittelbar ⟨v, vi ⟩ = λi , also v = ∑ri=1 ⟨v, vi ⟩ · vi . Ferner folgt für ⟨v, vi ⟩ = 0
für alle i, dass v = 0 ist.
Für iii) ⇒ iv) wählen wir zwei Vektoren
r r
v = ∑ ⟨v, vi ⟩ · vi und w = ∑ ⟨w, v j ⟩ · v j .
i=1 j=1
Dann folgt
r r
⟨v, w⟩ = ⟨ ∑ ⟨v, vi ⟩ · vi , ∑ ⟨v j , w⟩ · v j ⟩
i=1 j=1
r r
=
| {z } ∑
∑ ⟨v, vi⟩⟨v j , w⟩ · ⟨v i, v j ⟩ = ⟨v, vi ⟩ · ⟨vi , w⟩ .
i, j=1 i=1
δi j
Dabei ist δi j wie in der Lösung zu Aufgabe 2 d) in Abschnitt 1.5 das Kronecker-
Symbol.
iv) ⇒ v) folgt aus
r r
∥v∥2 = ⟨v, v⟩ = ∑ ⟨v, vi ⟩2 = ∑ |⟨v, vi ⟩|2 .
i=1 i=1
5.4 Bilinearformen und Sesquilinearformen 271
Die vi sind orthonormal, also linear unabhängig. Für v) ⇒ i) ist daher nur
V = span (v1 , . . . , vr ) zu zeigen. Nehmen wir an, dies ist nicht der Fall. Wir
ergänzen die vi zu einer Orthonormalbasis (v1 , . . . , vr , w1 , . . . , ws ) von V . Für
jedes j = 1, . . . , s gilt dann 1 = ∥w j ∥2 . Nach v) gilt jedoch
r
∥w j ∥2 = ∑ |⟨w j , vi ⟩| = 0 ,
i=1
und wegen 0 ̸= 1 ist dies ein Widerspruch.
Es fehlt noch ii) ⇒ i). Wir ergänzen (v1 , . . . , vr ) zu einer Orthonormalbasis
(v1 , . . . , vr , w1 , . . . , ws ) von V . Für jedes j = 1, . . . , s gilt dann ⟨w j , vi ⟩ = 0 für alle
i, und aus ii) folgt w j = 0, also s = 0 und V = span (v1 , . . . , vr ).
7. a) Zunächst ist für alle f , g ∈ V
2π
1 ∫
⟨ f + g, h⟩ = π ( f (x) + g(x)) · h(x)dx
0
2π 2∫π
1 ∫
= π f (x) · h(x)dx + π1 g(x) · h(x)dx = ⟨ f , h⟩ + ⟨g, h⟩ ,
0 0
sowie
2π 2π
1 ∫ λ ∫
⟨λ f , g⟩ = π λ f (x) · g(x)dx = π f (x) · g(x)dx = λ ⟨ f , g⟩ ,
0 0
daher gilt B1. Die Eigenschaft S folgt aus
2π 2π
1 ∫ 1 ∫
⟨ f , g⟩ = π f (x) · g(x)dx = π g(x) · f (x)dx = ⟨g, f ⟩ ,
0 0
und B2 folgt aus B1 und S.
b) Zu zeigen ist die Orthonormalität der Elemente aus B. Für all diejenigen,
die nicht gerne integrieren, gilt: Alle auftretenden Integrale befinden sich in der
Integrationstabelle von [B-S], S. 52ff, Integrale 274ff.
Wegen
2∫π 2∫π
cos(nx)dx = sin(nx)dx = 0 für alle n ∈ N r {0}
0 0
gilt √ √ 2∫π
⟨ 12 2, cos(nx)⟩ = 2
2π cos(nx)dx =0
0
sowie √ √ 2∫π
⟨ 12 2, sin(nx)⟩ = 2
2π sin(nx)dx =0
0
für alle n ∈ N r {0}. Diese Vektoren sind somit orthogonal. Wegen
√ √ 2∫π
⟨ 21 2, 12 2⟩ = π1 12 dx = 1
0
272 5 Euklidische und unitäre Vektorräume
und 2π
1 ∫
⟨cos(nx), cos(nx)⟩ = π cos2 (nx)dx = 1 ,
0
sowie 2π
1 ∫
⟨sin(nx), sin(nx)⟩ = π sin2 (nx)dx = 1
0
sind sie sogar normiert.
Mit Hilfe von partieller Integration sowie Additionstheoremen zeigen wir für
m ̸= n
2π
1 ∫
π sin(nx) sin(mx)dx
0
2π 2∫π
= − π1n cos(nx) sin(mx)0 + πmn sin(nx) sin(mx) + cos((n + m)x)dx ,
0
und daraus folgt
2∫π 2π
(n − m) sin(nx) sin(mx)dx = − cos(nx) sin(mx)0
0
2π
m
+ n+m sin((n + m)x)0 = 0 ,
also ⟨sin(nx), sin(mx)⟩ = 0 für n ̸= m. Eine analoge Rechnung zeigt
⟨cos(nx), cos(mx)⟩ = 0 für n ̸= m ,
damit sind diese Vektoren orthonormal. Schließlich erhalten wir
2π
1 ∫
2π
π sin(nx) cos(mx)dx = − 1 cos(nx) cos(mx)
nπ 0
0
2∫π
− nmπ cos(nx) sin(mx)dx .
0
Für n = m folgt hier bereits ⟨cos(nx), sin(nx)⟩ = 0 für alle n ∈ N r {0}. Ist n ̸= m,
so zeigen wir durch eine weitere Integration
2π
1 ∫
2π
π sin(nx) cos(mx)dx = − n1π cos(nx) sin(mx)0
0
2π ∫π
2 2
− nm2 π sin(nx) sin(mx) + nm2 π sin(nx) cos(mx)dx .
0 0
Da die beiden ersten Terme auf der rechten Seite verschwinden, folgt
⟨sin(nx), cos(mx)⟩ = 0
für alle n, m ∈ N r {0}. Damit sind wir fertig.
c) Die Behauptung
√ folgt aus Aufgabe 6, Bedingung iii). Man beachte, dass auch
a0 = ⟨ f , 22 ⟩ ein Fourierkoeffizient ist, obwohl er in der Aufgabe nicht explizit
aufgeführt ist.
5.4 Bilinearformen und Sesquilinearformen 273
d)∗ In der Aufgabenstellung der Teile d)∗ und e)∗ der zehnten sowie der elften
a20
Auflage der Linearen Algebra hat sich ein Fehler eingeschlichen. Statt 2 bzw.
a0 a′0
2 muss in der Aufgabenstellung bzw. a20stehen. a0 a′0
Für jede endliche Summe
a0 √ n
fn := 2 + ∑ ak cos(kx) + bk sin(kx)
2 k=1
definieren wir f˜n := f − fn .
Dann gilt
0 6 ∥ f˜n ∥2 = ⟨ f˜n , f˜n ⟩
√ n n
= ∥ f ∥2 − 2a0 ⟨ f , 21 2⟩ − 2 ∑ ak ⟨ f , cos(kx)⟩ − 2 ∑ bk ⟨ f , sin(kx)⟩
k=1 k=1
a0 √ n
+⟨ 2 + ∑ ak cos(kx) + bk sin(kx),
2 k=1
a0 √ n
2 + ∑ ak cos(kx) + bk sin(kx)⟩
2 k=1
n n n ( )
(∗)
= ∥ f ∥2 − 2a20 − 2 ∑ a2k − 2 ∑ b2k + a20 + ∑ a2k + b2k
k=1 k=1 k=1
(
n )
= ∥f∥ 2
− a20 − ∑ a2k + b2k = ∥ f ∥2 ,
k=1
wobei an der Stelle (∗) die Orthonormalität der Basisvektoren von B ausgenutzt
wurde. Umformung ergibt n ( )
∥ f ∥2 > a20 + ∑ a2k + b2k .
k=1
Da dies für alle n ∈ N r {0} gilt, folgt die Behauptung.
e)∗ Betrachten wir die Lösung von Teil d), so erkennen wir, dass die Gleichheit
bei der Besselschen Ungleichung nicht gilt, wenn f nicht durch seine Fourier-
Reihe dargestellt werden kann, d.h. wenn gilt
( )
a0 √ n
lim 2 + ∑ (ak cos kx + bk sin kx) ̸= f (x) . (∗)
n→∞ 2 k=1
Gilt für zwei Funktionen f und g punktweise Konvergenz für die (∗) entspre-
chenden Reihen ihrer Fourierkoeffizienten, so wird die Besselsche Ungleichung
für sie zur Gleichung, und dies ist gleichbedeutend mit
∞ ( )
⟨ f , g⟩ = a0 a′0 + ∑ ak a′k + bk b′k .
k=1
274 5 Euklidische und unitäre Vektorräume
Seien nun f , g ∈ V stückweise stetig differenzierbar. Nach der Theorie der punkt-
weisen Konvergenz von Fourier-Reihen (vgl. [B-F1], Kapitel 12, Abschnitt 4))
wird jede auf [0, 2π ] stetige stückweise differenzierbare Funktion durch ihre
Fourier-Reihe dargestellt, d.h. es gilt punktweise Konvergenz, somit
a0 √ ∞
2 + ∑ (ak cos kx + bk sin kx)
2
(k=1 )
a0 √ n
:= lim 2 + ∑ (ak cos kx + bk sin kx) = f (x)
n→∞ 2 k=1
und
a′0 √ ∞ ( )
2 + ∑ a′k cos kx + b′k sin kx
2
(k=1 )
a′0 √ n ( )
:= lim 2 + ∑ a′k cos kx + b′k sin kx = g(x) .
n→∞ 2 k=1
Wir definieren nun
a0 √ n
ϑn := ⟨ f − 2 − ∑ (ak cos kx + bk sin kx) ,
2 k=1
a′0 √ n ( )
g− 2 − ∑ a′k cos kx + b′k sin kx ⟩
2 k=1
n ( )
= ⟨ f , g⟩ − a0 a′0 − ∑ ak a′k + bk b′k .
k=1
Da f und g durch ihre Fourier-Reihen dargestellt werden, folgt
lim ϑn = ⟨0, 0⟩ = 0 ,
n→∞
und damit
n ( ) ∞ ( )
⟨ f , g⟩ = a0 a′0 + lim
n→∞
∑ ak a′k + bk b′k = a0 a′0 + ∑ ak a′k + bk b′k .
k=1 k=1
10.∗ Die Konstruktion einer Darboux-Basis verläuft ähnlich wie die Konstrukti-
on einer Orthonormalbasis im Orthonormalisierungssatz. Wir formulierern daher
zunächst die Aussage der Aufgabe etwas anders:
Sei V ein endlichdimensionaler symplektischer Vektorraum und W ⊂ V ein
Untervektorraum mit Darboux-Basis (v1 , . . . , vm , w1 , . . . , wm ). Dann gibt es ei-
ne Ergänzung zu einer Darboux-Basis
(v1 , . . . , vn , w1 , . . . , vn ) von V .
Da W = 0 erlaubt ist, folgt die Aussage der Aufgabe.
Wir wählen die Bezeichnungen wie im Beweis des Orthonormalisierungssatzes,
um die Analogie aufzuzeigen.
Ist W = V , so ist nichts mehr zu zeigen. Ansonsten gibt es einen Vektor
v ∈ V rW , und wir definieren
ṽ := ω (v1 , v)w1 + . . . + ω (vm , v)wm + ω (v, w1 )v1 + . . . + ω (v, wm )vm .
Nun setzen wir vm+1 := v − ṽ und berechnen
ω (vm+1 , v j ) = ω (v, v j ) − ω (ṽ, v j )
m ( )
= ω (v, v j ) − ∑ ω (vi , v)ω (wi , v j ) + ω (v, wi )ω (vi , v j )
i=1
= ω (v, v j ) + ω (v j , v) = 0
sowie durch analoge Rechnung
ω (vm+1 , w j ) = 0
für alle j = 1, . . . , m. Daraus folgt insbesondere, dass vm+1 ∈ / W ist.
Da ω schiefsymmetrisch ist, folgt ω (vm+1 , vm+1 ) = 0. Damit gilt jedoch
ω (vm+1 , v) = 0 für alle v ∈ span (v1 , . . . , vm+1 , w1 , . . . , wm ) =: W ′ ,
also ist W ′ ̸= V , da ω nicht-entartet ist. Also existiert ein w ∈ V r W ′ mit
ω (vm+1 , w) ̸= 0, und wir definieren ähnlich wie im ersten Schritt
m
w̃ := ∑ (ω (vi , w)wi + ω (w, wi )vi ) + ω (w, vm+1 )vm+1 .
i=1
Setzen wir wie oben w̃m+1 := w − w̃, so gilt für alle j = 1, . . . , m
m ( )
ω (w̃m+1 , v j ) = ω (w, v j ) − ∑ ω (vi , w)ω (wi , v j ) − ω (w, wi )ω (vi , v j )
i=1
−ω (w, vm+1 )ω (vm+1 , v j )
= ω (w, v j ) + ω (v j , w) = 0 ,
und analog folgt ω (w̃m+1 , w j ) = 0 für alle j = 1, . . . , m. Andererseits gilt
ω (vm+1 , w̃m+1 ) = ω (vm+1 , w) ̸= 0
278 5 Euklidische und unitäre Vektorräume
c) Die Dimension des gegebenen Unterraumes ist 4, und eine mögliche Ortho-
normalbasis ist
w1 = 12 · t (1, i, −i, 0, 1) , w2 = √13 · t (i, 1, 0, i, 0) ,
E2. Nach der Lösung von Aufgabe 2 c) zu 1.5 ist eine Basis gegeben durch
(t,t 2 + 1,t 2 + t). Hierbei sind die Vektoren v1 = t und v2 = t 2 + 1 orthogonal,
denn ∫1 1
s(v1 , v2 ) = t(t 2 + 1)dt = 1 t 4 + 1 t 2 = 0 .
4 2 −1
−1
√
3
Wie in Aufgabe 9 b) ist w1 := 2t normiert. Ferner ergibt sich
∫1
s(v2 , v2 ) = (t 2 + 1)2 dt = 56
15 ,
−1
√
also ist w2 := 15 2
56 (t + 1) normiert.
Mit dem Verfahren von Schmidt erhalten wir weiterhin
ṽ3 = s(v3 , w1 )w1 + s(v3 , w2 )w2 = 72 t 2 + 27 ,
und damit
w̃3 = v3 − ṽ3 = 57 t 2 − 72 .
Hiermit ergibt sich
√ (5 )
1
w3 = · w̃3 = 21
· 7t
2− 2 .
∥w̃3 ∥ 2 7
E3. Es ist einfach zu zeigen, dass es sich bei der Abbildung um ein Skalarprodukt
handelt; wir lassen die Rechnungen an dieser Stelle aus. Die in Aufgabe 2 d) zu
Abschnitt 1.5 bestimmte Basis ( fr ∈ V : fr (x) = δxr ) ist eine Orthonormalbasis,
denn
⟨ fr , fr ⟩ = fr (r) · fr (r) = 1 ,
und für r ̸= s gilt
⟨ fr , fs ⟩ = fr (r) · fs (r) + fr (s) · fs (s) = 0 .
280 5 Euklidische und unitäre Vektorräume
E5. a) Wir betrachten den Fall K = C; für K = R verläuft die Lösung fast analog.
Aus den Rechenregeln 1), 2) in 2.5.4 in [Fi1] folgen die Regeln (B1) und (B2).
Davon zeigen wir ( ) ( )
s(A, λ B) = Sp t (λ B) · A = Sp λ̄ · t B · A
(t )
= λ̄ · Sp B · A = λ̄ · Sp(A, B) .
Für A = (ai j ) und B = (bi j ) gilt
m
t
B · A = (cik ) mit cik = ∑ b̄ jia jk
j=1
sowie m
t
A · B = (dik ) mit dik = ∑ ā jib jk ,
j=1
woraus cii = ∑mj=1 b̄ ji a ji und dii = ∑mj=1 ā ji b ji folgt. Wegen b̄ ji a ji = (ā ji b ji ) gilt
cii = d¯ii , und damit
s(A, B) = s(B, A) ,
also die Bedingung (H), d.h. s ist eine hermitesche Bilinearform.
Für A ∈ M(m × n; C) ist eii := ∑mj=1 ā ji a ji ∈ R+ nach 1.3.4 b), und damit gilt
n
s(A, A) = ∑ eii ∈ R+ mit s(A, A) = 0 ⇔ A = 0 ,
i=1
also ist s positiv definit.
b) Die Dimension von V ist gleich 4, und wie man durch Ausprobieren heraus-
findet, ist eine Orthonormalbasis
(( ) ( von V )
gegeben
( durch
) ( ))
1 0 0 1 0 0 0 0
B= , , , .
0 0 0 0 1 0 0 1
Man beachte, dass dies nicht die einzige Möglichkeit für eine Orthonormalbasis
ist.
a11 A1
E6. (1) Wir schreiben A = ..
. ∈ M(n; K). Hierbei ist A1 das
A2 ann
5.4 Bilinearformen und Sesquilinearformen 281
obere Matrizendreieck der Elemente ai j mit j > i und A2 das untere Matrizen-
dreieck der Elemente ai j mit i > j. Für λ ∈ K gilt dann
λ · a11 λ · A1
Sp (λ · A) = Sp ..
.
λ · A2 λ · ann
n n n
= ∑ λ · aii = λ · ∑ aii = λ · ∑ Sp A .
i=1 i=1 i=1
b11 B1
(2) Für A wie oben und analog definiertes B = ..
. gilt
B2 bnn
n n n
Sp (A + B) = ∑ (aii + bii ) = ∑ aii + ∑ bii = Sp A + Sp B .
i=1 i=1 i=1
Damit wurde die Behauptung bewiesen.
E7. a) Die Behauptung folgt aus
n n n n
Sp (A · B) = ∑ ∑ ai j b ji = ∑ ∑ b jiai j = Sp (B · A).
i=1 j=1 j=1 i=1
b) Die Gesetzmäßigkeiten lassen sich durch Rechnung nachweisen. Aus Teil a)
folgt, dass sl(n; K) eine Lie-Algebra ist.
c) Wir betrachten die Wohldefiniertheit. Es seien A, B,C ∈ M(n; K), so dass [A, B]
und [C, B] schiefsymmetrisch sind. Dann gilt
[A +C, B] = (A +C) · B − B · (A +C)
= (A · B − B · A) + (C · B − B ·C)
~
= [A, B] + [C, B] = − t[B, A] − t[B,C]
~~
= −t[B, A +C] .
Hierbei wurde an der Stelle ~ berücksichtigt, dass [A, B] und [C, B] schiefsym-
metrisch sind. An der Stelle ~~ wurden analoge Schritte wie zu Beginn der
Rechnung, nur entgegengesetzt, durchgeführt.
d) Es gilt tA = −A. Daraus folgt aii = 0 für alle i = 1, . . . , n; damit ist Sp A = 0.
e) Es gilt
t
[A, B] = t(AB − BA) = t(AB) − t(BA)
= −B · (−A) − (−A) · (−B) = −AB + BA
= −(A · B − B · A) = −[A, B] .
Damit ist [A, B] ∈ o(n; K).
282 5 Euklidische und unitäre Vektorräume
E8. a) Es sei A = (ai j ) ∈ u(n). Die Elemente in der Diagonale der Matrix haben
die Form aii = a + i · b mit a, b ∈ R.
Es gilt
aii = −āii ⇐⇒ a + i · b = −(a − i · b) ⇐⇒ a + i · b = −a + i · b ⇐⇒ a = 0.
Daher folgt aii ∈ i · R.
b) Das Additionsgesetz ist klar. Wir weisen die Regel des Skalarprodukts nach.
Wir betrachten hier die Diagonalelemente aii von A, da es sich um imaginäre
Zahlen handelt. Für die übrigen Elemente der Matrix A gelten die Rechenregeln,
da C ein Körper und R ⊂ C ein Unterkörper der reellen Zahlen sind.
Für λ ∈ R und aii ∈ i · R folgt λ · aii ∈ i · R. Damit ist die Bedingung, dass die
Diagonalelemente der Matrix λ · A imaginär sind, erfüllt.
Für λ ∈ C mit λ = b + i · c (mit b, c ∈ R) und aii = i · a ∈ i · R (d.h. a ∈ R) folgt
λ · aii = (b + i · c) · i · a = i · ab − ac ∈
/ i·R.
Daher ist u(n) zwar ein R-, aber kein C-Vektorraum.
c) Für A, B ∈ u(n) gilt A = − tĀ und B = − tB̄. Hieraus folgen
(t ) (t )
t
A = − t Ā = −Ā und tB = − t B̄ = −B̄ . ~
Damit lässt sich berechnen:
t
[A, B] = t(AB − BA) = t(AB) − t(BA)
= tB · tA − tA · tB
~
= (−(B̄) · (−Ā) − (−) Ā) · (−B̄) = B̄ · Ā − Ā · B̄
= − Ā · B̄ − B̄ · Ā = −(A · B − B · A)
= −[A, B] .
E9. Da u(n) und sl(n; C) Vektorräume über die reellen Zahlen sind und
u(n) ∩ sl(n, C) ein Vektorraum ist, folgt die Behauptung.
E10. Wir formen zunächst die drei Terme um:
[A, [B,C]] = [A, (BC −CB)]
= A · (BC −CB) − (BC −CB) · A
= ABC − ACB − BCA +CBA ,
[B, [C, A]] = [B, (CA − AC)]
= B · (CA − AC) − (CA − AC) · B
= BCA − BAC −CAB + ACB ,
[C, [A, B]] = [C, (AB − BA)]
= C · (AB − BA) − (AB − BA) ·C
= CAB −CBA − ABC + BAC .
5.4 Bilinearformen und Sesquilinearformen 283
Hiermit folgt
[A, [B,C]] + [B, [C, A]] + [C, [A, B]] = ABC − ACB − BCA +CBA
+ BCA − BAC −CAB + ACB
+ CAB −CBA − ABC + BAC
= 0.
Hiermit folgt
A = 21 (b11 + b22 ) · η0 + b12 · η1 + a12 · η2 + 21 (b11 − b22 ) · η3 ,
und es gilt R u(2) = R span(η0 , η1 , η2 , η3 ).
ii) Über C gelten gl(2; C) ⊂ span(η0 , η1 , η2 , η3 ) und
dimgl(2; C) = span(η0 , η1 , η2 , η3 ) = 4 .
Damit folgt
gl(2; C) = span(η0 , η1 , η2 , η3 ) .
iii) Für A ∈ sl(2; C) gilt
( ) ( ) ( )
a11 a12 i 0 0 a12
A= = −i · a11 · + .
a21 a22 0 −i a21 0
Da η1 , η2 linear unabhängig über R sind und
{( )}
0 a12
dim span(η1 , η2 ) = 2 = dim : a12 , a21 ∈ C)
a21 0
gilt, folgt die Behauptung, d.h. sl(2; C) = span(η1 , η2 , η3 ).
iv) Es gilt su(2) = u(2) ∩ sl(2; C). Außerdem gelten
u(2) = span(η1 , η2 , η3 ) und sl(2; C) = span(η, η2 , η3 ) ,
woraus su(2) = span(η1 , η2 , η3 ) folgt.
Die lineare Unabhängigkeit lässt sich zeigen, indem man die (2 × 2)-Matrizen
als Vektoren des C4 auffasst, sie als Spalten einer (4 × 4)-Matrix notiert und den
Rang dieser Matrix bestimmt, d.h.:
( )
i 0
η0 = ; t(i, 0, 0, i) ,
0 i
( )
0 i
η1 = ; t(0, i, i, 0) ,
i 0
( )
0 1
η2 = ; t(0, 1, −1, 0) ,
−1 0
( )
i 0
η3 = ; (i, 0, 0, −i) .
0 −i
Dies führt zur Matrix
i 0 0 i
0 i 1 0
A=
0 i −1 0
.
i 0 0 −i
Es gilt rang C (A) = rang R (A) = 4. Hieraus folgt die Behauptung.
286 5 Euklidische und unitäre Vektorräume
Es ist sinnvoll, sich diesen Transfer zu merken, er kommt häufiger vor. (Vgl.
auch E1 b) für ( einen simplen Fall.)
)
−1 0 0
b) Es sei A′ = 0 1 0 . Hiermit gilt
0 0 −1
( )( ) ( )
−1 0 0 1 1
(1, x1 , x2 ) 0 1 0 x1 = (−1, x1 , −x2 ) x1 = −1 + x12 − x22 .
0 0 −1 x2 x2
c) Wir wählen
−1 0
1
A′ = ,
1
0 0
und damit gilt
−1 0 1 1
1 x1 x1
(1, x2 , x2 , x3 ) x = (−1, x1 , x2 , 0) x
1 2 2
0 0 x3 x3
= −1 + x12 + x22 .
Dies zeigt die Behauptung.
d) Hier wählen wir
0 0
1
A′ = ,
1
0 −1
so folgt
0 0 1 1
1 x1 x1
(1, x2 , x2 , x3 )
1 x = (0, x1 , x2 , −x3 ) x2
2
0 −1 x3 x3
= x12 + x22 − x32 .
E14. Im Teil b) von Aufgabe E1 haben wir herausgefunden, dass für die Kom-
ponenten einer symmetrischen Matrix A′ = (ai j )06i, j62 und x = t(x1 , x2 , x3 ) gilt:
t
x · A′ · x = a00 + 2a01 x1 + 2a02 x2 + 2a12 x1 x2 + a11 x12 + a22 x22 = 0 .
Mit analogen Überlegungen zeigt sich, dass allgemein für eine symmetrische
Matrix A′ = (ai j )06i, j6n und x = t(x1 , x2 , . . . , xn ) und x0 = 1 gilt:
n
t
x · A′ · x = ∑ ai j · xi · x j .
i, j=0
288 5 Euklidische und unitäre Vektorräume
Definieren wir jetzt die symmetrische Bilinearform β durch β (x, x) = ∑ni=1 aii xi2 ,
die Linearform ω durch ω (x) = 2 · ∑ni=1 a0i xi und schließlich α = a00 , so haben
wir die Behauptung bewiesen.
Wegen der linearen Unabhängigkeit von 1 und i über R folgte aufgrund von
x, y ̸= 0 daraus b2 − b1 = 0 = b1 + b2 und daher λ1 = λ2 = 0 im Widerspruch
zur Annahme. Ebenso gilt b2 − b1 ̸= 0 oder b1 + b2 ̸= 0. Damit aber sind x und y
über R linear abhängig.
Sind andererseits x und y linear abhängig über R, so existieren a, b ∈ R mit
(a, b) ̸= (0, 0), so dass ax + by = 0 gilt. Damit gilt jedoch
(1 ) (1 )
2 (a + b) + i 2 (a − b) (x + iy) + 2 (a − b) + i 2 (a + b) (x − iy) = 0 ,
1 1
und wegen (a, b) ̸= (0, 0) sind nicht alle Koeffizienten gleich null, d.h. z und z
sind linear abhängig.
4. Zunächst prüfen wir, ob A ∈ U(3) gilt, da wir dann das Korollar zu Theorem
5.5.5 anwenden können. Nach diesem Korollar bestehen die Spalten von S aus
einer Basis von Eigenvektoren von A.
Es ist 2
90 0 0
A · t A = 9012 0 902 0 = E3 = t A · A ,
0 0 902
also A ∈ U(3). Als nächstes bestimmen wir das charakteristische Polynom. Wir
erhalten nach einiger Rechnung
PA (t) = −t 3 + 11
5 t − 5 t + 1 = −(t − 1)(t − 5 t + 1) .
2 11 2 6
Die Eigenwerte sind 1, 35 + 54 i und 35 − 45 i. Wir können uns leicht bestätigen, dass
alle drei Eigenwerte den Betrag 1 haben, wie es nach Bemerkung 5.5.1 auch sein
soll. Die zugehörigen Eigenvektoren können wir wie üblich bestimmen.
√ √ √ √
−√ 4
15 − 15 6 31 √2 7√ 2 3 3 5
A − 1 · E3 = 15 1
√6 −√ 1
5
1
3 3
; 6 2 0
− 15 2 − 5 3 − 3
7 1 1 0 0 0
mit Kern √ √
Eig (A; 1) = span t (1, − 12 6, − 12 2)
sowie √ √
15 −
− 15 6
2 4 1
(3 ) √5 i 3 √2
A− 5 + 45 i · E3 = 1
5 −√5 i
1
15 √ 6 4 1
3 3
− 15
− 15 3 15
7
2 1
− 45 i
√ √
− 12i √−3 √6
2√ 5 2
; 3i 2 − 2i 0
0 0 0
mit dem Kern ( √ )
( ) √ √ √
Eig A; 35 + 54 i = span t 15 2 − 35 2i, − 51 3 − 52 3i, 1 .
5.5 Orthogonale und unitäre Endomorphismen 291
Diese normieren wir und können sie dann gemeinsam mit dem normierten Ei-
genvektor zum reellen Eigenwert 1 als Spalten von T übernehmen:
1√ √ √
15 √15 − 5 √15
1 1
3 √3
T = − 12 √2 − 10 1
√10 − 5 10
1 .
−6 6
1 1
6 30 0
Wir bestätigen, dass es sich bei T um eine orthogonale Matrix handelt und be-
rechnen ( ) ( )
1 0 0 1 0 0
t
T ·A·T = 0 0.6 0.8 = 0 cos α − sin α
0 −0.8 0.6 0 sin α cos α
mit α ≈ −0.927.
5. Ins Matrizenkalkül übertragen bedeutet die Voraussetzung, dass die Spalten
der Matrix Mπ von fπ gerade die kanonische Orthonormalbasis bilden (in von
π abhängiger Reihenfolge). Damit ist Mπ orthogonal, einzige reelle Eigenwerte
können 1 und −1 sein. Beide Zahlen treten auf, wie das Beispiel
fπ
(x1 , x2 , x3 , . . . , xn ) 7→ (x2 , x1 , x3 , . . . , xn )
zeigt.
Wir sollten bedenken, dass die Eigenvektoren von fπ sehr viel schwieriger zu
finden sind und z.B. von den Fehlständen der Permutation π abhängen.
292 5 Euklidische und unitäre Vektorräume
Man beachte, dass die durch s definierte hermitesche Form mit der in Abschnitt
5.3.2 definierten Fortsetzung ⟨ , ⟩c des kanonischen Skalarproduktes für den Fall
V = R2n übereinstimmt.
Lösung der Ergänzungsaufgabe
E1. a) Die Eigenschaften (B1) und (B2) folgen aus Re (z + z′ ) = Re (z) + Re (z′ )
für beliebige z, z′ ∈ C sowie aus λ = λ̄ für λ ∈ R, denn s ist sesquilinear. Die
Symmetrie von ⟨ , ⟩ folgt aus Re (z) = Re (z̄) für alle z ∈ C, denn s ist her-
mitesch. Schließlich folgt aus der Tatsache, dass s positiv definit ist, gerade
⟨v, v⟩ = s(v, v) > 0 für alle 0 ̸= v ∈ V , also ist ⟨ , ⟩ positiv definit.
b) Die Argumentation verläuft ähnlich wie unter a). Wir zeigen daher zum Be-
weis der Bilinearität lediglich mit λ ∈ R
ω (v, λ w) = −Im (s(v, λ w)) = −Im (λ · s(v, w))
= λ · (−Im (s(v, w))) = λ · ω (v, w) .
Die Schiefsymmetrie von ω folgt mit Hilfe der Schiefsymmetrie
( ) von s aus
ω (v, w) = −Im (s(v, w)) = −Im s(w, v)
= − (−Im (s(w, v))) = −ω (w, v) .
Da s positiv definit ist, ist ω nicht-entartet.
c) Die Behauptungen folgen aus
s (i · v, i · w) = i · (−i) · s(v, w) = s(v, w)
für alle v, w ∈ V .
d) ist klar nach der Definition von ⟨ , ⟩ und ω .
Matrix S, so dass t SAS Diagonalgestalt besitzt. Die Spalten von S bilden dabei
eine Orthonormalbasis nach Bemerkung 5.5.2. Genauer bilden die Spalten von
S nach Theorem 5.6.2 eine Orthonormalbasis aus Eigenvektoren von A, und die
Zahlen λ1 , . . . , λn aus dem zugehörigen Korollar sind die Eigenwerte von A. Wir
bestimmen also zunächst eine Basis aus Eigenvektoren von A nach dem Verfah-
ren aus 5.6.3.
1) Zunächst bestimmen wir das charakteristische Polynom von A,
PA (t) = −t(t − 3)2 .
A hat somit die Eigenwerte 0 und 3.
2) Nun bestimmen wir die Eigenräume zu den Eigenwerten; Eig (A; 0) = Ker A
finden wir durch Zeilenumformungen der Matrix
( ) ( )
2 − 0 −1 1 1 0 1
−1 2 − 0 1 ; 0 1 1 ,
1 1 2−0 0 0 0
daraus folgt Eig (A, 0) = R · (1, 1, −1). Für den Eigenraum Eig (A, 3) betrachten
wir ( ) ( )
2 − 3 −1 1 1 1 −1
−1 2 − 3 1 ; 0 0 0 .
1 1 2−3 0 0 0
Es gilt also Eig (A; 3) = R · (1, 1, 2) + R · (1, −1, 0). Sicherlich kann man auch
eine andere Basis dieses Eigenraumes angeben, doch die von uns gewählte hat
den Vorteil, dass sie bereits orthogonal ist und später nur noch normiert werden
muss.
Wie erwartet gilt dim Eig (A; λ ) = µ (PA , λ ) für alle Eigenwerte λ von A, denn
wie zu Anfang der Aufgabe bemerkt, ist A diagonalisierbar.
3) Die Basisvektoren der Eigenräume müssen nun normiert werden. Wir erhalten
√ √ √
e1 = √13 (1, 1, −1) = √16 ( 2, 2, − 2)
e2 = √1 (1, 1, 2)
6 √ √
e3 = √1 (1, −1, 0) = √1 ( 3, − 3, 0) .
2 6
− 2 2 0
5.6 Selbstadjungierte Endomorphismen∗ 295
b) Der Beweis verläuft ähnlich zum Beweis von Theorem 5.5.6. Wir übernehmen
daher die Bezeichnungen.
Der Trick liegt in der Komplexifizierung der Abbildung F. Bezüglich einer
Orthonormalbasis A bezeichne A := MA (F). Das charakteristische Polynom
PA (t) zerfällt überer den Körper der komplexen Zahlen in Linearfaktoren. Da
nach Aufgabe E1 b) die Abbildung F nur den Eigenwert 0 besitzt, folgt mit
Hilfe von 1.3.10 in [Fi1].
PA (t) = ±t l · (t − λ1 )(t − λ̄1 ) · . . . · (t − λk )(t − λ̄k ) ,
wobei l + 2k = n = dimV ist und alle λ j ungleich 0 sind. Bezeichnen wir
λ j = α j + iβ j , so ist nach Voraussetzung β j ̸= 0, und es gilt
(t − λ j )(t − λ̄ j ) = t 2 − 2α j t + (α 2j + β j2 ) .
Im Cn existiert eine Orthonormalbasis B aus Eigenvektoren von F. Dies zeigt
man analog zum Induktionsbeweis in der ersten Hälfte des Beweises von Theo-
rem 5.6.2. Da A reell ist, liegen die in B enthaltenen Eigenvektoren v1 , . . . , vl
zum Eigenwert 0 im Rn .
Ist z ∈ Cn ein Eigenvektor zu einem nicht reellen Eigenwert λ , so ist mit der
Begründung wie im Beweis von Theorem 5.5.6 auch z̄ ∈ Cn ein Eigenvektor zum
Eigenwert λ̄ . Wir können daher die übrigen Elemente von B so ordnen:
z1 , . . . , zk zu den Eigenwerten λ1 , . . . , λk ,
z̄1 , . . . , z̄k zu den Eigenwerten λ̄1 , . . . , λ̄l .
Wie im Beweis von Theorem 5.5.6 kann man aus jedem solchen Paar z, z̄ von Ei-
genvektoren zu Eigenwerten λ und λ̄ einen unter A invarianten Untervektorraum
W ⊂ Rn konstruieren, indem man für z = x + iy
W := span (x, y) ⊂ Rn
wählt. Die A-Invarianz von W und die Orthogonalität von x und y zeigt man wie
in 5.5.6, und normieren wir die Basis von W via
√ √
x∗ := 2 · x und y∗ := 2 · y ,
so folgt, da A anti-selbstadjungiert ist,
⟨x∗ , A(x∗ )⟩ = −⟨A(x∗ ), x∗ ⟩ = 0 ,
und daher gilt A(x∗ ) ∈ span (y∗ ), also existiert ein λ ∈ R r 0 mit
A(x∗ ) = λ · y∗ . (∗)
Analog folgt aus
⟨y∗ , A(y∗ )⟩ = −⟨A(y∗ ), y∗ ⟩ = 0 ,
dass A(y∗ ) ∈ span (x∗ ) ist, und damit existiert ein µ ∈ R r 0 mit
A(y∗ ) = µ · x∗ . (∗∗)
5.7 Hauptachsentransformation∗ 297
5.7 Hauptachsentransformation∗
1. Die Matrix A zu s ist symmetrisch, also bestimmen wir nach dem Hauptach-
sentransformationssatz aus 5.7.1, Teil 1), eine Orthonormalbasis A aus Eigen-
vektoren von A. Bezüglich dieser Basis hat MA (s) Diagonalgestalt. Ist
( )
3 −2 0
A = −2 2 −2 ,
0 −2 1
so berechnen wir das charakteristische Polynom
PA (t) = −(t − 2)(t − 5)(t + 1) .
Die Eigenwerte von A sind somit 2, 5 und −1. Nach dem üblichen Verfahren
ermitteln wir
( ) ( )
Eig (A; 2) = span (t (2, 1, −2)
) , Eig (A; 5) = span t (2, −2, 1) ,
Eig (A; −1) = span t (1, 2, 2) ,
und die Basis A ist durch die drei Vektoren
w1 := 31 (2, 1, −2) , w2 := 31 (2, −2, 1) und w3 := 31 (1, 2, 2)
gegeben. Nach 5.7.1 ist die zweite Basis gegeben durch B = (w′1 , w′2 , w′3 ), wobei
w′1 := √12 · w1 w′2 := √15 · w2 und w′3 := w3
gilt.
2. a) B1 folgt mit Hilfe der Regeln für die Differentiation (vgl. [Fo1], §15) aus
d( f + g, h) = (( f + g)h)′ (0) = ( f h + gh)′ (0)
= ( f h)′ (0) + (gh)′ (0) = d( f , h) + d(g, h)
und
d(λ f , g) = ((λ f )g)′ (0) = (λ f g)′ (0) = λ ( f g)′ (0) = λ · d( f , g) .
Die Regel S folgt aus der Produktregel und der Kommutativität der reellen Zah-
len, und aus der Gültigkeit von B1 und S folgt B2.
298 5 Euklidische und unitäre Vektorräume
b) Aus
d( f , g) = ( f g)′ (0) = f (0)g′ (0) + f ′ (0)g(0) = 0
folgt
M := { f ∈ D : f (0) = f ′ (0) = 0} ⊂ D0 .
Gilt andererseits d( f , g) = 0 für alle g ∈ D, so gilt für alle g mit g′ (0) ̸= 0
g(0) ′
f (0) = − ′ f (0) .
g (0)
Da der Koeffizient vor dem f ′ (0) mit Hilfe der Abbildungen g = t + r für r ∈ R
jeden reellen Wert annehmen kann, kann die Gleichung nur für
f (0) = f ′ (0) = 0
erfüllt sein. Daraus folgt D0 ⊂ M. D0 besteht also aus allen differenzierbaren
Funktionen, deren Graph durch den Ursprung verläuft und dort die Steigung null
hat.
3. Die Umformung der ersten Matrix lautet
1 2 2 1 0 0
A= 2 1 4 0 1 0 = E3
2 4 4 0 0 1
1 0 0 1 −2 −2
0 −3 0 0 1 0 = S.
0 0 0 0 0 1
Dann ist
1 0 0
t
SAS = 0 −3 0 .
0 0 0
Es wird jeweils das (−2)-fache der ersten Zeile bzw. Spalte zu der zweiten und
dritten Zeile bzw. zweiten und dritten Spalte addiert. Die Matrix S gibt das Pro-
dukt der Matrizen für die Spaltenumformungen wieder (vgl. 2.7.1).
5.7 Hauptachsentransformation∗ 299
1 0 1 0 1 0 0 0
B= 0 1 1 2 0 1 0 0
1 1 0 0 0 0 1 0
0 2 0 2 0 0 0 1
1 0 0 0 1 0 −1 0
0 1 1 2 0 1 0 0
0 1 −1 0 0 0 1 0
0 2 0 2 0 0 0 1
1 0 0 0 1 0 −1 0
0 1 0 2 0 1 −1 0
0 0 −2 −2 0 0 1 0
0 2 −2 2 0 0 0 1
1 0 0 0 1 0 −1 1
0 1 0 0 0 1 −1 −1 = T
0 0 −2 0 0 0 1 −1
0 0 0 0 0 0 0 1
Die Umformungen und Bezeichnungen erklären sich dabei von selbst. Wir emp-
fehlen, zur Überprüfung der Rechnung immer eine Probe durchzuführen, in die-
sem Fall sollte man
1 0 0 0
t 0 1 0 0
TAT =
0 0 −2 0
0 0 0 0
nachrechnen.
4. A ist negativ definit genau dann, wenn t xAx =< 0 für alle x ∈ Rn . Dann gilt
jedoch für alle x
0 < −(t xAx) = t x(−A)x ,
d.h. t xAx < 0 ⇔ t x(−A)x > 0, daraus folgt die Behauptung.
5. Nach 5.7.7 sind die Matrizen genau dann positiv (negativ) definit, wenn alle
Eigenwerte positiv (negativ) sind. Dies kann man an den charakteristischen Po-
lynomen erkennen, wobei man (siehe A2 ) die Nullstellen unter Umständen nicht
einmal genau kennen muss. Für
( )
1 2 −2
A1 = 2 2 0
−2 0 −4
300 5 Euklidische und unitäre Vektorräume
ergibt sich
PA1 (t) = −t(t 2 + t − 18) .
Da ein Eigenwert 0 ist, kann A1 weder positiv noch negativ definit sein.
Das charakteristische Polynom der zweiten Matrix A2 lautet
PA2 (t) = −(t 3 + 9t 2 + 16t + 2) .
Man kann erkennen, dass A2 negativ definit ist, ohne die Nullstellen des charak-
teristischen Polynoms auszurechnen (das ist nämlich gar nicht so einfach). Da
alle Koeffizienten dasselbe Vorzeichen haben, kann PA2 (t) nur negative Nullstel-
len haben.
Für die dritte Matrix A3 lautet das charakteristische Polynom
PA3 (t) = −(t 3 − 25t 2 + 75t − 27)
√ √
= −(t − 3)(t − 11 + 112)(t − 11 − 112) ,
und alle Eigenwerte sind größer als null. A3 ist positiv definit. Dass alle Eigen-
werte positiv sind, kann man auch schon daran erkennen, dass die Koeffizienten
vor ungeraden Potenzen von t negativ und vor geraden Potenzen von t positiv
sind; diese Argumentation erspart die konkrete Berechnung der Eigenwerte.
6. C0 ist ein Kegel, denn für v ∈ C0 und beliebiges λ ∈ R gilt
s(λ v, λ v) = λ 2 · s(v, v) = λ 2 · 0 = 0.
Für v ∈ C+ gilt s(v, v) > 0. Wegen λ 2 > 0 für alle λ ∈ R r {0} folgt
s(λ v, λ v) = λ 2 · s(v, v) > 0.
Mit λ = 0 folgt
s(λ v, λ v) = 0 · s(v, v) = 0.
6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.4
Weiter ist
C+ = {vR2 : v21 > v22 } ∪ {0}.
Dies ist in Abbildung 5.5 zu sehen.
6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.5
Zusätzlich erhält man
C− = {vR2 : v21 < v22 } ∪ {0}.
Kegel werden ebenfalls in Aufgabe 3 zu Abschnitt 6.3 betrachtet.
6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.6
302 5 Euklidische und unitäre Vektorräume
E2. a) Nach der Definition der Matrizenmultiplikation gilt für A = (ai j )16i, j6n
n
∑k=1 a1k ak1 · · · ∑nk=1 a1k akn
A =
2 .
.. .
.. .
∑nk=1 ank ak1 · · · ∑nk=1 ank akn
Wegen Ā = tA gilt
( )2 ( )2
aik = āki ⇒ aik · aki = aik · āik = aRik + aIik . ~
Ferner gilt aufgrund von Ā = tA auch aii ∈ R für alle i. Für die Elemente in der
Diagonalen an der i-ten Stelle ergibt sich
n n ( ) ( )
∑ aik · aki = ∑ (aRik )2 + (aIik )2 = a2ii + ∑ (aRik )2 + (aIik )2 . ~~
k=1 k=1 k̸=i
Da es sich um eine hermitesche Matrix A handelt, folgt aus ~~
n ( ) ( )
∑ (aRik )2 + (aIik )2 = 2 ∑ (aRik )2 + (aIik )2 ,
k̸=i i<k
also n ( R 2 )
∑ aik aki = a2ii + 2 ∑ (aik ) + (aIik )2 .
k=1 i<k
Damit folgt die Behauptung für den ersten Summanden, und die Behauptungen
für den zweiten und dritten Sumanden sind klar.
b) Für die Konstante c gilt
1
c= ( ( )) .
exp −Sp Q(A) dA
Kapitel 6
Dualität∗
6.1 Dualräume
∗ ∗
B (id ) = T B und M B (id∗ ) = T B . Aus Satz
1. Nach Bemerkung 2.6.3 gilt MA V A A∗ V A∗
6.1.4 folgt damit
∗
( ) ( )−1
B∗
TAB∗ = MA ∗
∗ (idV ) =
t
MBA
(idV ) = t TBA = t TAB .
2. Nach der Konvention ( )∗ in 6.1.6 bestimmen wir zunächst die Menge aller Vekto-
ren (x1 , . . . , x5 ) ∈ R5 , für die
2 0
3 5
(x1 , . . . , x5 ) · 1 = 0 , (x1 , . . . , x5 ) · 1 = 0
4 −1
3 3
und
4
0
(x1 , . . . , x5 ) · 1 = 0
1
−2
gilt. Dies sind nach dem Transponieren genau die Vektoren im R5 , die im Kern
der durch die Matrix
( )
2 3 1 4 3
A= 0 5 1 −1 3
4 0 1 1 −2
beschriebenen Abbildung liegen. Es genügt also, eine Basis von Ker A zu bestim-
men und dann zu transponieren. Dazu formen wir A zunächst um:
( )
2 0 0 21 10
; 0 1 0 8 5 .
0 0 1 −41 −22
Daraus bestimmen wir Basisvektoren von Ker A und transponieren sie:
u1 = (−5, −5, 22, 0, 1) , u2 = (− 21
2 , −8, 41, 1, 0) .
Es folgt U 0 = span (u1 , u2 ).
3. Mit Hilfe von Satz 6.1.4 erhalten wir das kommutative Diagramm
F - F∗
A B ∗
MB ? ?
MA ∗
A - tA
? ?
M(m × n; K) - M(n × m; K) .
∗
A , M B und die Transposition sind Isomorphismen, also ist
Die Abbildungen MB A∗
die Abbildung F 7→ F ∗ ebenfalls ein Isomorphismus.
4. Wir zeigen beide Inklusionen. Für ψ ∈ F ∗ (U 0 ) existiert ein φ ∈ U 0 mit
( )0
ψ = φ ◦ F. Aus φ |U = 0 folgt ψ |F −1 (U) = 0, daher gilt ψ ∈ F −1 (U) .
( )0
Ist andererseits ψ ∈ F −1 (U) , so gilt ψ |F −1 (U) = 0. Wir betrachten die Zer-
legungen
V = F −1 (U) ⊕ Ṽ und W = U ⊕ W̃ mit W̃ = F(Ṽ ) ⊕W ′
für geeignetes W ′ ⊂ W . Es gilt F(Ṽ ) ⊂ W̃ und dimF(Ṽ ) 6 dimW̃ . Wegen
Ker F ⊂ F −1 (U) ist F|Ṽ injektiv. Es sei (ṽ1 , . . . , ṽk ) eine Basis von Ṽ und
(w̃1 , . . . , w̃k ) eine Basis von F(Ṽ ) mit F(ṽi ) = w̃i für i = 1, . . . , k. Die Basis von
F(Ṽ ) ergänzen wir zu einer Basis (w̃1 , . . . , w̃k , w1 , . . . , wm ) von W̃ . Nach 2.4.1
gibt es genau ein lineares φ ∈ Hom (W, K) mit
φ (w̃i ) = ψ (ṽi ) für i = 1, . . . , k und
φ (w j ) = 0 für j = 1, . . . , m sowie φ |U = 0 .
Daraus folgt ψ = φ ◦ F, also ψ ∈ F ∗ (U 0 ).
5. a) ⊃“: Für φ ∈ W1◦ ∩W2◦ gilt φ (w1 ) = 0 für alle w1 ∈ W1 und φ (w2 ) = 0 für
”
alle w2 ∈ W2 . Hiermit folgt
φ (w1 + w2 ) = φ (w1 ) + φ (w2 ) = 0 + 0 = 0
für alle w1 ∈ W1 und alle w2 ∈ W2 , und damit gilt φ ∈ (W1 +W2 )◦ .
⊂“: Sei nun φ ∈ (W1 + W2 )◦ und w1 ∈ W1 beliebig. Wegen 0 ∈ W2 gilt
”
φ (w1 ) = φ (w1 + 0) ∈ φ (W1 + W2 ) = 0. Analog zeigt man φ (w2 ) = 0 für alle
w2 ∈ W2 . Damit gilt φ ∈ W1◦ und φ ∈ W2◦ .
b) ⊂“: Ist φ ∈ (W1 ∩ W2 )◦ , so folgt φ (w) = 0 für alle w ∈ W1 ∩ W2 . Definiert
”
man φ1 , φ2 ∈ W1◦ +W2◦ mit
{
0 für v ∈ W1 ,
φ1 (v) :=
φ (v) für v ∈ V rW1
306 6 Dualität∗
und
φ2 (v) := φ (v) − φ1 (v) für alle v ∈ V,
so gilt φ1 ∈ W1◦ und φ2 ∈ W2◦ sowie φ = φ1 + φ2 .
⊃“: Ist φ ∈ W1◦ +W2◦ , so gilt φ = φ1 + φ2 mit φ1 ∈ W1◦ und φ2 ∈ W2◦ . Hieraus
”
folgt φ1 (w1 ) = 0 für alle w1 ∈ W1 und φ2 (w2 ) = 0 für alle w2 ∈ W2 , und damit
ergibt sich für alle w ∈ W1 ∩W2
φ (w) = φ1 (w) + φ2 (w) = 0 + 0 = 0,
also gilt φ ∈ (W1 ∩W2 )◦ .
Φ Ψ
? ?
∗
V∗ F W∗
gilt für die Isomorphismen Ψ und Φ nach Satz 6.2.3
( ) ( )0
Ψ(U ⊥ ) = U 0 und Φ F −1 (U)⊥ = F −1 (U) .
Daher folgt die Behauptung aus Aufgabe 4 zu 6.1.
2. Die Aussage folgt aus Aufgabe 1.
Die Umkehrung gilt nicht, denn für eine anti-selbstadjungierte Abbildung F
(vgl. die Ergänzungsaufgaben zu 5.6) folgt aus Aufgabe 1
( ) ( )⊥
−F U ⊥ = F −1 (U) .
( )
Da F U ⊥ ein Untervektorraum von V ist, gilt
( ) ( ) ( )⊥
F U ⊥ = −F U ⊥ = F −1 (U)
für jede anti-selbstadjungierte Abbildung F.
3. Alles folgt aus Satz 6.2.5, Teil 3). Die Bijektivität ist unmittelbar klar, da
( ad )ad
F = F. Ferner gilt für eine Orthonormalbasis B von V
MB (F1ad + F2ad ) = t (MB (F1 + F2 )) = t MB (F1 ) + t MB (F2 )
= MB (F1ad ) + MB (F2ad )
sowie
MB (λ F ad ) = t MB (λ F) = λ̄ · t MB (F)) = λ̄ · MB (F ad ) .
6.2 Dualität und Skalarprodukte 307
4. A ist normal, da
A · t Ā = A · (−A) = (−A) · A = t Ā · A .
Ist v Eigenvektor zum Eigenwert λ , so gilt A · v = λ · v. Andererseits gilt
t v̄ · t Ā = λ̄ · t v̄,
und damit folgt
( )
λ̄ · t v̄ · v = t v̄ · t Ā · v = t v̄(−A · v) = t v̄(−λ v) = −λ · t v̄ · v ,
also λ̄ = −λ . Das jedoch ist gleichbedeutend mit λ ∈ iR.
5. Die Behauptung ist anschaulich sofort klar, wie z.B. Bild 6.3 in [Fi1] zeigt.
Auch der Beweis birgt keinerlei Schwierigkeiten.
Sind L und L′ windschief, so sind notwendigerweise w und w′ linear un-
abhängig. Wäre x ∈ span (w, w′ ), so existierten λ1 , λ2 ∈ R mit
v′ − v = x = λ1 w + λ2 w′ .
Daraus würde jedoch v′ − λ2 w′ = v + λ1 w folgen, d.h. L und L′ hätten einen
Schnittpunkt.
Sind umgekehrt w und w′ linear unabhängig, so sind L und L′ nicht parallel.
Hätten sie einen Schnittpunkt, so existierten λ1 , λ2 ∈ R mit
v + λ1 w = v′ + λ2 w′ ,
und daraus folgte x = v′ − v = λ1 w − λ2 w′ , d.h. x, w, w′ wären linear abhängig.
6. a) Es gilt
δ (λ , λ ′ ) = ∥v′ + λ ′ w′ − v − λ w∥2
( )
= λ 2 − 2⟨w, w′ ⟩λ λ ′ + λ ′ + 2 ⟨v, w⟩ − ⟨v′ , w⟩ λ
2
( ′ ′ )
+2 ⟨v , w ⟩ − ⟨v, w′ ⟩ λ ′ + ∥v∥2 + ∥v′ ∥2 − 2⟨v, v′ ⟩ ,
d.h. δ ist ein quadratisches Polynom in den Variablen λ , λ ′ . Auf δ können wir
daher die Theorie zur Bestimmung lokaler Extrema von Funktionen mehrerer
Variablen anwenden (vgl. [Fo2], §7, Satz 4), nach der δ ein lokales Minimum an
der Stelle (λ , λ ′ ) besitzt, falls grad δ (λ , λ ′ ) = 0 und (Hess δ )(λ , λ ′ ) eine positiv-
definite Matrix ist, wobei grad den Gradienten und Hess die Hesse-Matrix von
δ bezeichnen (vgl. auch Aufgabe 9 zu 2.5, wobei grad mit der Jacobi-Matrix für
m = 1 und n = 2 übereinstimmt). Wir bestimmen daher die Ableitungen erster
und zweiter Ordnung von δ :
∂δ ( )
(λ , λ ′ ) = 2λ − 2⟨w, w′ ⟩λ ′ + 2 ⟨v, w⟩ − ⟨v′ , w⟩ ,
∂λ
∂δ ( )
(λ , λ ′ ) = 2λ ′ − 2⟨w, w′ ⟩λ + 2 ⟨v′ , w′ ⟩ − ⟨v, w′ ⟩ ,
∂λ′
∂ 2δ ∂ 2δ ∂ 2δ ∂ 2δ
(λ , λ ′ ) = 2 = (λ , λ ′ ) , ′
(λ , λ ′ ) = −2⟨w, w′ ⟩ = (λ , λ ′ ) .
∂λ 2
∂λ ′ 2 ∂λ∂λ ∂ λ ′∂ λ
308 6 Dualität∗
Mit dem üblichen Verfahren der quadratischen Ergänzung (vgl. [Scha], §3) auf
beide Unbekannte angewandt ergibt sich daraus
( ) ( ( ) )
′ b2 ′2 −ab + 2c ′ −ab + 2c 2
δ (λ , λ ) = µ + bµ +
2
+ µ + √ µ + √
4 4 − a2 2 4 − a2
( ) 2
b 2 −ab + 2c
− − √ +d.
4 2 4 − a2
Setzen wir
b −ab + 2c
e := − , f := √ , g := d − e2 − f 2 ,
2 2 4 − a2
so hat δ (λ , λ ′ ) die gewünschte Form. Der Rest der Aufgabe ist klar, da Quadrate
von reellen Zahlen stets größer oder gleich 0 sind, und für µ = e sowie µ ′ = f
das Minimum erreicht wird.
Beim Vergleich von a) und b) stellen wir fest, dass die Lösung in Teil b) deutlich
kürzer ist. Sie ist jedoch nur im quadratischen Fall möglich, während die Lösung
von Teil a) unter allgemeineren Bedingungen Gültigkeit besitzt.
Lösungen der Ergänzungsaufgaben
E1. Wegen F ad = −F gilt
F ◦ F ad = F ◦ (−F) = (−F) ◦ F = F ad ◦ F .
E2. Die Lösung verläuft analog zur Lösung der Aufgabe E2 a) in Abschnitt 5.6.
6.3 Tensorprodukte∗
1. a) (L, +) ist sicherlich eine abelsche Gruppe, das zeigt V1. Wegen K ⊂ L gilt
k · l ∈ L für alle k ∈ K und alle l ∈ L, und da K ⊂ L ein Körper ist, folgt 1K = 1L .
Die Eigenschaften V2 folgen somit aus den Körpereigenschaften von L.
b) Nach Teil a) ist L ein K-Vektorraum. Daher folgt aus Theorem 6.3.3 die Exis-
tenz des K-Vektorraumes L ⊗K V , d.h. L ⊗K V ist bezüglich der Addition eine
abelsche Gruppe. Es bleibt V2 zu zeigen.
Es seien λ , µ ∈ L und v, v′ ∈ L ⊗K V . Wir können annehmen, dass
n n
v = ∑ λ i ⊗ vi und v′ = ∑ µ i ⊗ vi .
i=1 i=1
310 6 Dualität∗
Damit folgt
n n
(λ + µ ) · v = (λ + µ ) ∑ λi ⊗ vi = ∑ (λ + µ )λi ⊗ vi
i=1 i=1
n n
(∗)
= ∑ (λ λi + µλi) ⊗ vi = ∑ (λ λi ⊗ vi + µλi ⊗ vi)
i=1 i=1
n n n n
= ∑ λ λi ⊗ vi + ∑ µλi ⊗ vi = λ ∑ λi ⊗ vi + µ ∑ λi ⊗ vi
i=1 i=1 i=1 i=1
= λ ·v+ µ ·v.
Dabei wurde bei (∗) eine Rechenregel für Tensoren aus 6.3.3 verwendet.
Außerdem gilt
( )
n n
λ · (v + v′ ) = λ· ∑ λi ⊗ vi + ∑ µi ⊗ vi
(i=1 i=1
)
n
(∗)
= λ· ∑ (λi + µi) ⊗ vi
i=1
n n
= ∑ λ · (λ i + µ i ) ⊗ v i = ∑ (λ λ i + λ µ i ) ⊗ v i
i=1 i=1
n n
(∗)
= ∑ λ λ i ⊗ vi + ∑ λ µ i ⊗ vi
i=1 i=1
n n
= λ · ∑ λ i ⊗ vi + λ · ∑ µ i ⊗ vi = λ · v + λ · v′ ,
i=1 i=1
wobei bei (∗) die Rechenregeln für Tensoren aus 6.3.3 verwendet wurden.
Die beiden restlichen Regeln aus V2 sind unmittelbar einzusehen.
c) Es ist klar, dass die Familie (1 ⊗ vi )i∈I ein Erzeugendensystem ist.
Um ihre lineare Unabhängigkeit zu zeigen, sei (µ j ) j∈J eine Basis des K-Vek-
torraums L. Gilt
∑ λi(1 ⊗ vi) = 0
i
mit λi ∈ L, wobei die Summe wie üblich endlich ist, so besitzt jedes der λi eine
eindeutige endliche Darstellung
λi = ∑ κi j · µ j mit κi j ∈ K .
j
Damit folgt
0 = ∑ λi (1 ⊗ vi ) = ∑ κi j · µ j (1 ⊗ vi ) = ∑ κi j (µ j ⊗ vi ) .
i i, j i, j
6.3 Tensorprodukte∗ 311
Da nach dem Beweis von Theorem 6.3.3 die (µ j ⊗ vi )( j,i)∈J×I eine Basis des K-
Vektorraumes L ⊗V sind, folgt κi j = 0 für alle i, j und damit auch λi = 0 für alle
i; also ist die Familie (1 ⊗ vi )i∈I linear unabhängig.
d) φ definiert nach Teil c) und Satz 2.4.1 in eindeutiger Weise eine lineare Ab-
bildung.
Nach Teil c) ist für den Spezialfall L = K für eine Basis (vi )i∈I von V die
Familie (1 ⊗ vi )i∈I eine Basis von K ⊗K V . Daher ist φ ein Isomorphismus.
2. a) Zum Beweis der ersten Behauptung bemerken wir, dass Abb (V × W,U)
ein Vektorraum ist, und behaupten, dass BilK (V,W ;U) ⊂ Abb (V × W,U) ein
Untervektorraum ist. Dazu sind die Eigenschaften UV1, UV2 und UV3 aus 1.4.2
zu zeigen, die durch eine kurze Rechnung zu verifizieren sind.
Bevor wir beweisen, dass die Abbildung
φ : BilK (V,W ;U) → HomK (V ⊗W,U) , ξ 7→ ξ⊗ ,
ein Isomorphismus ist, müssen wir zunächst ihre Wohldefiniertheit zeigen. Die-
se folgt aus Theorem 6.3.3, nach dem die Abbildung ξ⊗ zu einer Abbildung ξ
eindeutig bestimmt ist. Es ist jedoch zu beachten, dass dies keineswegs selbstver-
ständlich ist, da der Raum V ⊗W nach Konstruktion ein Raum von Restklassen
ist und man daher die Invarianz von Rechenoperationen auf den einzelnen Rest-
klassen zeigen muss.
Wir zeigen nun die Linearität von φ . Dazu seien ξ , ξ ′ ∈ BilK (V,W ;U) und ξ⊗
bzw. ξ⊗′ ihre Bilder unter φ , d.h. ξ = ξ⊗ ◦ η und ξ ′ = ξ⊗′ ◦ η . Das Diagramm
V ×W
η @ ξ +ξ′
@
? R
@
α-
V ⊗W U
kommutiert mit α = ξ⊗ + ξ⊗′ sowie mit α = (ξ + ξ ′ )⊗ . Aus der Eindeutigkeit
der Abbildung α (siehe Theorem 6.3.3) folgt
(ξ + ξ ′ )⊗ = ξ⊗ + ξ⊗′ , d.h. φ (ξ + ξ ′ ) = φ (ξ ) + φ (ξ ′ ) .
Ebenso gilt φ (λ ξ ) = λ φ (ξ ) für alle ξ ∈ BilK (V,W ;U) und alle λ ∈ K. Dies
zeigt die Linearität von φ .
Ist φ (ξ ) = ξ⊗ = 0, so ist bereits ξ = 0 ◦ η = 0, also ist φ injektiv.
Für ψ ∈ Hom K (V ⊗ W,U) definieren wir ξ := ψ ◦ η ; dann ist ξ bilinear, da
η bilinear und ψ linear ist, und es gilt ψ = ξ⊗ aufgrund der Eindeutigkeit von
ξ⊗ ; dies zeigt die Surjektivität von φ .
Die Behauptung in Teil b) zeigt man analog, wobei V ∗ ⊗ V ∗ ∼ = (V ⊗ V )∗ aus
Satz 6.3.5 benutzt wird.
312 6 Dualität∗
Bild 6.1
b)∗ Wir benutzen die kanonischen Basen (e1 , . . . , em ) von K m und (e′1 , . . . , e′n ) von
K n sowie die Basis ei ⊗ e′j , 1 6 i 6 m, 1 6 j 6 n von K m ⊗ K n . Die kanonische
Basis von K m·n bezeichnen wir mit ei j , sie wird mit meist in lexikographischer
Ordnung geschrieben, d.h.
(e11 , . . . , e1n , e21 , . . . , e2n , . . . , em1 , . . . , emn ) .
Identifizieren wir K m ⊗ K n = K m·n , so wird η gegeben durch
K m × K n → K m·n , (ei , e′j ) 7→ ei j , d.h.
((x1 , . . . , xm ), (y1 , . . . , yn )) 7→ (x1 y1 , . . . , x1 yn , . . . , xm y1 , . . . , xm yn ) .
Für m = 0 oder n = 0 ist Q = 0, für m = 1 oder n = 1 ist η surjektiv, also können
wir m > 2 und n > 2 voraussetzen.
Der einfachste Fall ist m = n = 2, und wir behaupten
Q = {z = (z11 , z12 , z21 , z22 ) ∈ K 4 : z11 z22 − z12 z21 = 0} =: Q′ ,
d.h. Q ist eine Quadrik (siehe [Fi3], Abschnitt 1.4.1).
Die Inklusion Q ⊂ Q′ ist offensichtlich, denn
z11 z22 − z12 z21 = x1 y1 x2 y2 − x1 y2 x2 y1 = 0 .
Sei umgekehrt z = (z11 , z12 , z21 , z22 ) ∈ Q′ . Wegen 0 ∈ Q genügt es, den Fall z ̸= 0
zu betrachten. Ist z11 ̸= 0, so erhalten wir ein Urbild durch
z12
x1 := z11 , x2 := z21 , y1 := 1 , y2 := ,
z11
6.3 Tensorprodukte∗ 313
Eine Basis von HomK (V,V ′ ) × HomK (W,W ′ ) ist nach 2.4.2 gegeben durch die
′ j′
Abbildungen Fii × Fj mit
{ ′ { ′
′ vi′ , falls i = k, j′ w j′ , falls j = l,
Fii (vk ) := und Fj (wl ) :=
0 , sonst, 0, sonst,
und eine Basis von HomK (V ⊗W,V ′ ⊗W ′ ) ist gegeben durch die Abbildungen
{ ′
i′ , j′ i′ , j′ vi′ ⊗ w′j′ , falls (k, l) = (i, j),
Fi, j mit Fi, j (vk ⊗ wl ) :=
0, sonst.
Es gilt i′ , j′ ′ j′ ′ j′
Fi, j = Fii ⊗ Fj = χ (Fii , Fj ) ,
also bildet χ diese Basis von HomK (V,V ′ ) × HomK (W,W ′ ) auf eine Basis von
HomK (V ⊗W,V ′ ⊗W ′ ) ab. Da η Basen auf Basen abbildet, folgt die Behauptung
aus der Kommutativität von (∗).
6. ⇒“: Sind v1 , v2 linear abhängig, so existieren λ1 , λ2 ∈ K, die nicht beide
”
gleich null sind, so dass λ1 v1 + λ2 v2 = 0 gilt. Ist λ1 ̸= 0, so gilt v1 = − λλ2 · v2 ,
1
und damit folgt
v1 ∧ v2 = − λλ2 v2 ∧ v2 = − λλ2 (v2 ∧ v2 ) = 0 .
1 1
⇐“: Es seien v1 , v2 ∈ V linear unabhängig. Wir ergänzen sie zu einer Basis
”
(vi )i∈I von V mit 1, 2 ∈ I und definieren eine bilineare Abbildung
ξ : V ×V → K
durch ( )
λ1 λ2
ξ (v, w) := det für v = ∑ λi vi und w = ∑ µi vi .
µ1 µ2 i∈I i∈I
Dann ist ξ alternierend, und es gilt
ξ∧ (v1 ∧ v2 ) = ξ (v1 , v2 ) = 1 ̸= 0 ,
woraus v1 ∧ v2 ̸= 0 folgt.
7. a) Die Aussage i) ist klar, da C ein Körper und insbesondere ein Ring ist. ii)
folgt aus Korollar 2.5.4, und iii) gilt nach Aufgabe 9 a) zu 1.3. Die Eigenschaft
1) ist hierbei in allen drei Fällen unmittelbar einsichtig.
b) Es sei λa ∈ End (A) die Linksmultiplikation mit a ∈ A, d.h.
λa (a′ ) = a · a′ für alle a′ ∈ A .
6.3 Tensorprodukte∗ 317
Analog sei λb ∈ End (B) die Linksmultiplikation mit b ∈ B. Dann ist (vgl. Auf-
gabe 5) λa ⊗ λb ∈ End (A ⊗ B), und die Abbildung
λ : A × B → End (A ⊗ B) ,
(a, b) 7→ λa ⊗ λb ,
ist bilinear. Daher existiert eine lineare Abbildung λ⊗ : A ⊗ B → End (A ⊗ B), so
dass das Diagramm
λ - End (A ⊗ B)
A×B
η
? λ⊗
A⊗B
kommutiert.
Wir definieren nun die Multiplikation µ durch
µ : (A ⊗ B) × (A ⊗ B) → A ⊗ B ,
(a1 ⊗ b1 , a2 ⊗ b2 ) 7→ (λ⊗ (a1 ⊗ b1 )) (a2 ⊗ b2 ) =: (a1 ⊗ b1 ) · (a2 ⊗ b2 ) .
Nach Konstruktion ist µ gerade K-bilinear, und es gilt
(λ⊗ (a1 ⊗ b1 )) (a2 ⊗ b2 ) = λ (a1 , b1 ) (a2 ⊗ b2 ) = (λa1 ⊗ λb1 ) (a2 ⊗ b2 )
= a1 a2 ⊗ b1 b2 .
Die Ringeigenschaften folgen aus der Bilinearität von µ , das Einselement von
A ⊗ B ist gegeben durch 1A ⊗ 1B = 1A⊗B .
c) Zur besseren Übersicht kennzeichnen wir für einen Augenblick die Multi-
plikation in K[t] ⊗ K[t] mit ⊙ und den Vektorraum-Isomorphismus aus Beispiel
6.3.4 a) wie dort mit ξ⊗ . Dann gilt für alle f1 , f2 , g1 , g2 ∈ K[t]
ξ⊗ (( f1 ⊗ g1 ) ⊙ ( f2 ⊗ g2 )) = ξ⊗ ( f1 f2 ⊗ g1 g2 ) = f1 f2 · g1 g2
= f1 g1 · f2 g2 = ξ⊗ ( f1 ⊗ g1 ) · ξ⊗ ( f2 ⊗ g2 ) ,
also ist ξ⊗ ein Ringhomomorphismus.
Die Bijektivität von ξ⊗ ist klar, da ξ⊗ ein Vektorraum-Isomorphismus ist.
Algebren können auch über einem Ring R statt einem Körper K definiert werden
(vgl. [P], 1.1). Teil b) gilt auch in diesem Fall, und der Beweis verläuft genauso
wie oben gezeigt (vgl. [P], 9.2, Proposition a).
Für eine Anwendung von Algebren vgl. die Ergänzungsaufgaben in Abschnitt
5.4.
318 6 Dualität∗
8. Wir definieren
V ∨V := (V ⊗V )/S(V ) ,
wobei S(V ) der in 6.3.7 definierte Untervektorraum von V ⊗V ist. Wie im Beweis
von Theorem 6.3.8 bezeichnen wir mit ρ : V ⊗V → V ∨V die Quotientenabbil-
dung und erklären ∨ := ρ ◦ η , d.h. für alle v, v′ ∈ V ist
v ∨ v′ := ∨(v, v′ ) = ρ ◦ η (v, v′ ) = ρ (v ⊗ v′ ) .
∨ ist sicher bilinear, da η bilinear und ρ linear ist. Wegen
S(V ) ⊂ Ker ∨⊗ = Ker ρ
und Lemma 6.3.7 ist ∨ symmetrisch.
Es verbleibt der Nachweis der universellen Eigenschaft, der jedoch analog
zum Beweis von Theorem 6.3.8 verläuft. Wir betrachten das Diagramm
V ×V Z
Z
Bη Z ξ
B Z
Z
BN ~
Z
ξ⊗-
∨ V ⊗V W
>
ρ
?
ξ∨
V ∨V
Nach der universellen Eigenschaft des Tensorproduktes existiert ein eindeu-
tiges ξ⊗ , und nach der universellen Eigenschaft des Quotientenvektorraumes
(2.2.7) gibt es ein eindeutiges ξ∨ . Aus der Kommutativität der Teildiagramme
folgt ξ = ξ∨ ◦ ∨, d.h.
ξ∨ (v ∨ v′ ) = ξ (v, v′ ) für alle v, v′ ∈ V .
Wie bereits im Beweis von Theorem 6.3.8 steckt die Schwierigkeit im Beweis der
Behauptung über die Basis von V ∨V . Die Tensoren (vi ⊗ v j )i, j∈{1,...,n} erzeugen
V ⊗V . Daher erzeugen die Produkte (vi ∨ v j )i, j∈{1,...,n} den Raum V ∨V . Wegen
der Symmetrie der Abbildung ∨ gilt vi ∨ v j = v j ∨ vi , daher erzeugen bereits
die Produkte (vi ∨ v j )16i6 j6n den Raum V ∨ V , und es genügt, deren lineare
Unabhängigkeit zu zeigen. ( )
Hierzu betrachten wir den Vektorraum W = K N mit N = n+1 2 und bezeich-
nen dessen kanonische Basis mit (ei j )16i6 j6n . Wir konstruieren nun eine Abbil-
dung ξ : V ×V → K N . Sind
v = ∑ λi vi und v′ = ∑ µi vi
6.3 Tensorprodukte∗ 319
A
ηA fv3 ⊗
AU
V1 ⊗V2
kommutiert. Wir betrachten nun die nach Bemerkung 6.3.2 eindeutig bestimmte
bilineare Abbildung g, die definiert ist durch
(V1 ⊗V2 )×V3 → V1 ⊗V2 ⊗V3 , (v1 ⊗v2 , v3 ) 7→ v1 ⊗v2 ⊗v3 = fv3 ⊗ (v1 ⊗v2 ) .
Aufgrund der universellen Eigenschaft des Tensorprodukts existiert eine eindeu-
tige lineare Abbildung g⊗ , so dass das Diagramm
g-
(V1 ⊗V2 ) ×V3 V1 ⊗V2 ⊗V3
A
ηA g⊗
AU
(V1 ⊗V2 ) ⊗V3
ξ : V k → K durch
(1) (1)
λ1 · · · λk
.. ..
ξ (w1 , . . . , wk ) := det . . ,
(k) (k)
λ1 · · · λk
wobei
w j = ∑ λ i vi
( j)
für j = 1, . . . , k .
i∈I
Dann ist ξ alternierend, und es gilt
ξ∧ (v1 ∧ . . . ∧ vk ) = ξ (v1 , . . . , vk ) = 1 ̸= 0 ,
woraus v1 ∧ . . . ∧ vk ̸= 0 folgt.
b) Im Fall k > dimV sind in jedem n-Tupel (v1 , . . . , vk ) ∈ V k die Vektoren vi
linear abhängig
( (vgl.)Satz 1.5.2). Daraus folgt nach Teil a) ∧(V k ) = 0, und wegen
∧k ∧
V = span ∧(V k ) folgt k V = 0.
5. Analog zu Aufgabe 7 zu Abschnitt 6.3 definieren wir
∨k
V := V k /Sk (V ) ,
⊗k ∨
wobei S (V ) in 6.4.2 definiert wurde, und bezeichnen mit ρ :
k V → kV die
Quotientenabbildung.
Nun erklären wir ∨ := ρ ◦ η , d.h. für alle (v1 , . . . , vk ) ∈ V k ist
v1 ∨ . . . ∨ vk := ∨(v1 , . . . , vk ) = η ◦ ρ (v1 , . . . , vk ) = ρ (v1 ⊗ . . . ⊗ vk ) .
Aufgrund der Multilinearität von η und der Linearität von ρ ist ∨ multilinear,
und wegen Sk (V ) ⊂ Ker ∨⊗ = Ker ρ ist ∨ nach Lemma 6.4.2 symmetrisch.
Die universelle Eigenschaft erarbeiten wir mittels des folgenden Diagramms.
Vk Z
Z
Bη Z ξ
B Z
Z
BN ~
Z
⊗k ξ⊗-
∨ V W
>
ρ
?
ξ∨
∨k
V
Wie in Aufgabe 7 zu 6.3 folgt die Existenz eines eindeutigen linearen ξ⊗ aus
der universellen Eigenschaft des Tensorproduktes, und wegen der universel-
len Eigenschaft des Quotientenvektorraumes gibt es damit ein eindeutiges li-
neares ξ∨ . Es folgt ξ = ξ∨ ◦ ∨, d.h. ξ∨ (v1 ∨ . . . ∨ vk ) = ξ (v1 , . . . , vk ) für alle
(v1 , . . . , vk ) ∈ V k .
6.4 Multilineare Algebra 325
Nun kommen wir zum Beweis der Behauptung über die Basis. Wie am Ende
der Lösung zu Aufgabe 7 in 6.3 bemerkt, ist die dort für k = 2 durchgeführte
Konstruktion verallgemeinerungsfähig. Nach Theorem 6.4.1 sind die Tensoren
⊗
vi1 ⊗ . . . ⊗ vik mit 1 6 i j 6 n eine Basis von k V . Daher erzeugen die Produkte
vi1 ∨ . . . ∨ vik mit 1 6 i j 6 n
∨k
den Raum V . Aus der Symmetrie von ∨ folgt allerdings, dass bereits die Pro-
dukte
vi1 ∨ . . . ∨ vik mit 1 6 ii 6 . . . 6 ik 6 n
∨k
den Raum V erzeugen. Es genügt also, deren lineare Unabhängigkeit zu zei-
gen. ( )
Dazu betrachten wir den Vektorraum W = K N mit N = n+k−1 k und bezeich-
nen seine kanonische Basis mit
(ei1 ···ik )16i1 6...6ik 6n .
Genauso wie für das zweifache symmetrische Produkt konstruieren wir eine Ab-
bildung ξ : V k → K N , so dass ξ∨ ein Vektorraum-Isomorphismus ist. Das geht
so: Für Vektoren wi = ∑nj=1 λi j v j aus V für i = 1, . . . , k bezeichnen wir
ai1 ···ik := ∑ λ1σ (i1 ) · . . . · λkσ (ik ) mit 1 6 i1 6 . . . 6 ik 6 n
σ ∈Sk
und definieren durch
ξ (w1 , . . . wk ) := ∑ ai1 ···ik · ei1 ···ik
16i1 6...6ik 6n
eine symmetrische Abbildung. Aus der universellen Eigenschaft folgt
ξ∨ (vi1 ∨ . . . ∨ vik ) = ξ (vi1 , . . . , vik ) = ei1 ···ik ,
und da die ei1 ···ik linear unabhängig in K N sind, folgt die lineare Unabhängig-
∨
keit der vi1 ∨ . . . ∨ vik in k V . Wie bereits zuvor ist die so erhaltene Abbildung
∨k
ξ∨ : V → K N ein Vektorraum-Isomorphismus.
6. Es ist zu zeigen, dass durch die angegebene Zuordnung in eindeutiger Weise
eine lineare Abbildung definiert wird. Der Rest ist dann offensichtlich, da nach
der Lösung zu Aufgabe 3 von Abschnitt 1.5 die Polynome ti1 · . . . · tik eine Vek-
torraumbasis von K[t1 , . . . ,tn ](k) bilden. Insbesondere gilt hiernach
( )
n+k−1 ∨
dimK[t1 , . . . ,tn ](k) = = dim k K n ,
k
also wissen wir bereits, dass ein Isomorphismus zwischen den beiden Vektor-
räumen existiert. Es ist jedoch keineswegs klar, dass er auf diese kanonische Art
gegeben werden kann.
326 6 Dualität∗
Wir betrachten nun die eindeutige multilineare Abbildung ξ , die durch die
Zuordnung
(K n )k → K[t1 , . . . ,tn ](k) , (ei1 , . . . , eik ) 7→ ti1 · . . . · tik ,
definiert wird. Aufgrund der Kommutativität von K[t1 , . . . ,tn ](k) ist ξ symme-
trisch. Daher existiert eine eindeutige lineare Abbildung
∨
ξ∨ : k K n → K[t1 , . . . ,tn ](k) ,
so dass das Diagramm
ξ -
(K n )k K[t1 , . . . ,tn ](k)
@
∨@ ξ∨
R
@
∨k n
K
kommutiert.
Durch die Zuordnung (β1 , . . . , βl ) 7→ ηβ wird eine eindeutige multilineare und
alternierende Abbildung
(∧ ∧ )
λ : V l → Hom k
V, k+l V
definiert. Nach der universellen Eigenschaft des äußeren Produktes existiert eine
eindeutige lineare Abbildung
∧ (∧ ∧ )
λ̄ : l V → Hom k
V, k+l V ,
6.4 Multilineare Algebra 327
kommutiert.
∧ ∧ ∧
Definieren wir µ : k V × l V → k+l V durch
µ (α , β ) := λ̄ (β )(α ) = ηβ (α ) ,
so ist µ nach Konstruktion bilinear und eindeutig bestimmt.
b) Wir berechnen
α ∧ β = α1 ∧ . . . ∧ αk ∧ β1 ∧ . . . ∧ βl
= −α1 ∧ . . . ∧ β1 ∧ αk ∧ . . . ∧ βl
= . . . = (−1)l · α1 ∧ . . . ∧ αk−1 ∧ β1 ∧ . . . ∧ βl ∧ αk
= (−1)2l · α1 ∧ . . . ∧ αk−2 ∧ β1 ∧ . . . ∧ βl ∧ αk−1 ∧ αk
= . . . = (−1)k·l β1 ∧ . . . ∧ βl ∧ α1 ∧ . . . ∧ αk .
mit Aufgabe 4 a)
α̃ ∧ β = α ∧ β ̸= 0 .
Die Behauptung für ein β ̸= 0 zeigt man analog.
ii) Es genügt nach einer analogen Argumentation wie in Teil i), die Behaup-
∧
tung für Vektoren der Form v = v1 ∧ . . . ∧ vk ∈ k V zu zeigen.
Wir wählen dazu ein v ̸= 0 der obigen Form. Dann sind die Vektoren
v1 , . . . , vk linear unabhängig und können zu einer Basis B = (v1 , . . . , vn ) von
V ergänzt werden. Mit B ∗ = (v∗1 , . . . , v∗n ) bezeichnen wir die duale Basis von B.
Wählen wir ∧
φ := v∗1 ∧ . . . ∧ v∗k ∈ k V ∗ ,
so folgt
v∗1 (v1 ) · · · v∗1 (vk )
det φ (v) = det ... .. = det E = 1 ̸= 0 .
. n
v∗k (v1 ) · · · v∗k (vk )
Der zweite Teil der Behauptung folgt wegen V ∗∗ ∼ = V durch Dualisierung.
b) Aus Teil a) ii) zusammen mit Satz 6.2.1 ( erhalten
) wir
∧k ∗ ∼ ∧k ∗
V = V ,
dies ist i). Ferner gilt nach Teil a) i) mit Satz 6.2.1
∧k ∼ (∧n−k )∗
V= V ,
also zusammen mit i) (∧ )∗ ∧
∧k
V∼
= n−k
V ∼= n−k V ∗ ,
das zeigt ii).
9. Analog zu Aufgabe 2 zu 6.3 zeigt man, dass Altk (V ;W ) ⊂ Abb (V k ,W ) ein
Untervektorraum ist. Dies folgt mit einer kurzen Rechnung, die wir hier auslas-
sen.
Auch der Nachweis, dass die kanonische Abbildung
∧
φ : Altk (V ;W ) → Hom( k V ,W ) , ξ 7→ ξ∧ ,
ein Isomorphismus ist, verläuft wie in Aufgabe 2 zu 6.3. Wie bereits dort soll-
te allerdings beachtet werden, dass die Wohldefiniertheit einer Abbildung auf
Restklassen keineswegs klar ist.
∧ ∧
Mit Hilfe von Aufgabe 8 a) i) folgt, dass ( k V )∗ und k V ∗ kanonisch iso-
morph sind. Damit können wir im Fall W = K die kanonische Abbildung φ als
Abbildung ∧
φ : Altk (V, K) → k V ∗
auffassen, d.h. eine alternierende Abbildung ξ : V k → K, auch alternierende k-
∧
Form genannt, kann mit dem Element φ (ξ ) ∈ k V ∗ identifiziert werden.
6.4 Multilineare Algebra 329
Auf diese Art werden z.B. in [Fo3], §19 Differentialformen höherer Ordnung
eingeführt, indem für K = R mit V = Tp (U) der Tangentialraum im Punkt p ∈ U
einer offenen Teilmenge des Rn gewählt wird.
Mit Hilfe von Differentialformen kann der Integralbegriff auf Mannigfaltig-
keiten erweitert werden. Als Höhepunkt erhält man den allgemeinen Stokesschen
Integralsatz, der als Spezialfälle den Gaußschen Integralsatz und den klassi-
schen Stokesschen Integralsatz enthält. Zu Einzelheiten siehe [Fo3], §18–21 oder
[C-B], Chapter IV.
Lösungen der Ergänzungsaufgaben
E1. a) Wir zeigen die zu Beginn der Aufgabe notierten Zusammenhänge (1) und
(2).
Zu (1): ( )
g (ξ ( f1 , . . . , fk )) (u1 , . . . , λ · ui , . . . , uk )
= g (ξ ( f1 (u1 ), . . . , fi (λ · ui ), . . . , fk (uk )))
fi lin.
= g (ξ ( f1 (u1 ), . . . , λ · fi (ui ), . . . , fk (uk )))
ξ multilin.
= g (λ · ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )))
g lin.
= λ · g (ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk ))) .
Zu (2): ( )
g (ξ ( f1 , . . . , fk )) (u1 , . . . , ui + u∗i , . . . , uk )
= g (ξ ( f1 (u1 ), . . . , fi (ui + u∗i ), . . . , fk (uk )))
fi lin.
= g (ξ ( f1 (u1 ), . . . , fi (ui ) + fi (u∗i ), . . . , fk (uk )))
ξ multilin. (
= g ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )))
+ξ ( f1 (u1 ), . . . , fi (u∗i ), . . . , fk (uk ))
g lin. ( )
= g ξ(( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )) )
+g ξ ( f1 (u1 ), . . . , fi (u∗i ), . . . , fk (uk )) .
Damit ist die Behauptung bewiesen.
b) Es seien (v1 , . . . , vr ) ∈ V1 × . . . ×Vr und (vr+1 , . . . , vk ) ∈ Vr+1 × . . . ×Vk . Ferner
seien
ξ1 (v1 , . . . , vi + v∗i , . . . , vr ) ∈ W1 und ξ2 (vr+1 , . . . , vk ) ∈ W2 .
Dann gilt ( )
ξ ξ1 (v1 , . . . , vi + v∗i , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ξ1 multilin. ( )
= ξ ξ1 (v1 , . . . , vi , . . . , vr ) + ξ1 (v1 , . . . , v∗i , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ξ multilin. ( )
= ξ ξ(1 (v1 , . . . , vi , . . . , vr ), ξ2 (vr+1 , . . . , vk ) )
∗
+ξ ξ1 (v1 , . . . , vi , . . . , vr ), ξ2 (vr+1 , . . . , vk ) .
330 6 Dualität∗
Analog verläuft die Rechnung für (vr+1 , . . . , vi + v∗i , . . . , vk ) ∈ Vr+1 × . . . ×Vk und
ξ2 .
Damit ist die Bedingung (2) bewiesen. (1) lässt sich analog zu Teil a) nach-
weisen.
E2. a) Zu Bedingung (1) von multilinearen Abbildungen: Wir bezeichnen
V := V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk , und es seien v ∈ Vi für 1 6 i 6 k beliebig,
(v1 , . . . , vi−1 , vi+1 , . . . , vk ) ∈ V .
Für ein beliebiges λ ∈ K und j < i folgt
ξ(i,v) (v1 , . . . , λ · v j , . . . , vi−1 , vi+1 , . . . , vk )
= ξ (v1 , . . . , λ · v j , . . . , vi−1 , v, vi+1 , . . . , vk )
ξ multilin.
= λ · ξ (v1 , . . . , v j , . . . , vi−1 , v, vi+1 , . . . , vk )
= λ · ξ(i,v) (v1 , . . . , vi−1 , vi+1 , . . . , vk ) .
Analog verläuft die Berechnung für j > i.
Bei dem Beweis der Bedingung (2) wird die Multilinearität der Abbildung ξ
analog berücksichtigt.
b) ξ(i,v) = 0 bedeutet, dass es sich bei Nullabbildung handelt, d.h. es gilt
ξ(i,v) = 0 ⇐⇒ ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) = 0 ∀ v j ∈ V j mit j ̸= i .
Da ξ(i,l) eine multilineare Abbildung ist, ist sie für festes
(v1 , . . . , vi−1 , vi+1 , . . . , vk ) ∈ V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk
eine lineare Abbildung Vi → W . Daher ist für v, w ∈ Vi0
ξ(i,λ ·(v+w)) = 0 ⇐⇒ ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk ) = 0
Mithilfe der Rechenregeln für Vektorräume folgt
ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk )
= λ · ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) + λ · ξ (v1 , . . . , vi−1 , w, vi+1 , . . . , vk ) .
Daher gilt ξ(i,λ ·(v+w)) = 0 genau dann, wenn
ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk ) =
λ · ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) + λ · ξ (v1 , . . . , vi−1 , w, vi+1 , . . . , vk ) = 0
⇐⇒ λ · ξ(i,v) + λ · ξ(i,w) = 0 , womit die Behauptung bewiesen ist.
c) Die Linearität der Abbildung und ihre Surjektivität ergeben sich direkt aus
Teil a).
Es sei ξ ∈ ker(η ) Dann gilt für alle v ∈ Vi :
ξ(i,v) (ṽ) = 0 für alle ṽ ∈ V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vn .
Damit ist ξ(i,v) eine Nullabbildung für alle v ∈ Vi , und damit folgt ξ (w) = 0 für
alle w ∈ V1 × . . . ×Vk .
6.4 Multilineare Algebra 331
′j i ···i
= vki11 vl11 · . . . · v′ jk · T j11··· jqp · e′k1 ⊗ . . . ⊗ e′k p ⊗ e′l1 ⊗ . . . ⊗ e′lq
′k1 ···k p ′l1
= Tl1 ···l q
· e ⊗ . . . ⊗ e′lq .
Die Transformationsformel ist daher
′k1 ···k p k ′j ′j ′j i ···i
Tl1 ···lq
= vki11 vki22 · . . . · vi pp · vl11 · vl22 · vlqq · T j11··· jqp . ~
Wahrscheinlichkeitsverteilung, sta-
tionare, 48
Weg, 218
wegzusammenhängend, 217
Weierstraß-Kurven, 16
Weierstras-Kurve, 15
Widerspruchsbeweis, 3, 85
Winkel, 56
Symbolverzeichnis
0 Lineare Gleichungssysteme
0.4 Das Eliminationsverfahren von Gauß
• E11 bis E15. Lösung linearer Gleichungssysteme mit komplexen und re-
ellen Lösungen
• E1. Geraden
• E2. Kreise
1 Grundbegriffe
1.1 Mengen und Abbildungen
1.2 Gruppen
• E2. Untergruppen
1.4 Vektorräume
• E1. Untervektorräume
344 Verzeichnis der Ergänzungsaufgaben
2 Lineare Abbildungen
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗
• E1. Potenzen von Matrizen unter Anwendung eines Computer-Algebra-
Systems (CAS)
2.4 Lineare Abbildungen und Matrizen
• E1. Polynome vom Grad 3, Vektorraum, Basis, Standardbasis, Darstel-
lungsmatrix, Transformationsmatrix
2.5 Multiplikation von Matrizen
• E1. Potenzen von Matrizen, Charakteristik
• E2. Symmetrische Matrizen
• E3. Multiplikation von Matrizen
• E4. Potenz von Matrizen
2.7 Elementarmatrizen und Matrizenumformungen
• E1. Untersuchung auf Invertierbarkeit, ggf. Inverse bestimmen
• E2. Umkehrung der Multiplikation von Matrizen mit Vektoren
• E3. Anwendung von Polynomen auf Matrizen
• E4. Untervektorraum, differenzierbare & trigonometrische Funktion
• E5. Gruppe der Endomorphismen, Polynome
• E6. Satz von Cayley-Hamilton
• E7 und E8. Anwendung von Polynomen auf Matrizen
3 Determinanten
3.1 Beispiele und Definitionen
• E1. Mehrfache Nullstellen von Polynomen
• E2. Beziehung zwischen Polynom und Determinante
Verzeichnis der Ergänzungsaufgaben 345
• E1. Diskriminante
3.3 Minoren∗
4 Eigenwerte
4.1 Beispiele und Definitionen
4.3 Diagonalisierung
6 Dualität∗
6.2 Dualität und Skalarprodukte
• E1. Anti-selbstadjungierter Endomorphismus, normaler Endomorphismus
• E2. Anti-selbstadjungierter Endomorphismus, antihermitescher Endomor-
phismus
6.4 Multilineare Algebra∗
• E1 und E2. Nachweis multilinearer Abbildung
• E3. Transformationformel, 1-fach kontravarianter Tensor, 1-fach kovari-
anter Tensor, Einsteinsche Summenkonvention
Verzeichnis der Ergänzungsaufgaben 347
• 1.2 Gruppen:
Elliptische Kurven von Seiten der Codierung und Kryptographie