2017 Book ÜbungsbuchZurLinearenAlgebra

Als pdf oder txt herunterladen
Als pdf oder txt herunterladen
Sie sind auf Seite 1von 355

Grundkurs Mathematik

Hannes Stoppel
Birgit Griese

Übungsbuch
zur Linearen
Algebra
Aufgaben und Lösungen
. Auflage
Grundkurs Mathematik

Berater
Martin Aigner,
Peter Gritzmann,
Volker Mehrmann,
Gisbert Wüstholz
Die Reihe „Grundkurs Mathematik“ ist die bekannte Lehrbuchreihe
im handlichen kleinen Taschenbuch-Format passend zu den mathe-
matischen Grundvorlesungen, vorwiegend im ersten Studienjahr.
Die Bücher sind didaktisch gut aufbereitet, kompakt geschrieben
und enthalten viele Beispiele und Übungsaufgaben.

In der Reihe werden Lehr- und Übungsbücher veröffentlicht, die bei


der Klausurvorbereitung unterstützen. Zielgruppe sind Studieren-
de der Mathematik aller Studiengänge, Studierende der Informatik,
Naturwissenschaften und Technik, sowie interessierte Schülerinnen
und Schüler der Sekundarstufe II.

Die Reihe existiert seit 1975 und enthält die klassischen Bestseller
von Otto Forster und Gerd Fischer zur Analysis und Linearen Alge-
bra in aktualisierter Neuauflage.
Hannes Stoppel · Birgit Griese

Übungsbuch zur
Linearen Algebra
Aufgaben und Lösungen
9., erweiterte Auflage
Hannes Stoppel Birgit Griese
Westfälische Wilhelms-Universität Universität Paderborn
Münster, Deutschland Deutschland

Grundkurs Mathematik
ISBN 978-3-658-14521-7 ISBN 978-3-658-14522-4  (eBook)
DOI 10.1007/978-3-658-14522-4
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
http://dnb.d-nb.de abrufbar.

Springer Spektrum
© Springer Fachmedien Wiesbaden 1998, 1999, 2001, 2003, 2005, 2008, 2011,
2015, 2017
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Ver-
wertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf
der vorherigen Zustimmung des Verlags. Das gilt insbesondere für ­Vervielfältigun-
gen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung
und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw.
in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der
Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-
Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt wer-
den dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben
und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig
und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber über-
nehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige
Fehler oder Äußerungen.

Planung: Ulrike Schmickler-Hirzebruch

Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier

Springer Spektrum ist Teil von Springer Nature


Die eingetragene Gesellschaft ist Springer Fachmedien Wiesbaden GmbH
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 ­Wiesbaden, Germany
Vorwort
Seit die zehnte Auflage der Linearen Algebra von Gerd Fischer erschienen ist,
die als Neuerung gegenber den älteren Auflagen viele Übungsaufgaben enthält,
sind beim Verlag viele Anfragen nach den Lösungen dieser Aufgaben eingegan-
gen. Auf Anregung von Frau Schmickler-Hirzebruch begann im Winter 96/97
die Arbeit an diesem Lösungsbuch.
Dennoch stehen wir der Veröffentlichung eines Buches, das nur aus Lösungen
zu Übungsaufgaben besteht, skeptisch gegenüber, da die eigene Beschäftigung
mit Problemen und viel eigenes Nachdenken für das Verständnis von Mathema-
tik unverzichtbar sind. Das Nachschlagen von Lösungen in einem Buch macht
nach dieser Überzeugung nur Sinn, wenn man sich vorher selbstständig und aus-
giebig mit der Aufgabe auseinandergesetzt hat. Wir hoffen, daß unsere LeserIn-
nen diese Disziplin besitzen. Unter diesen Voraussetzungen kann ein Lösungs-
buch davor schützen, viel Zeit ohne viel Nutzen mit einer einzelnen Aufgabe zu
vertun und so hoffentlich Frustrationen verhindern.
Dieses Buch ist jedoch auch für geübte MathematikerInnen von Interesse,
denn wir haben auf folgendes besonderen Wert gelegt: Viele der Übungsauf-
gaben in der zehnten und elften Auflage der Linearen Algebra gewinnen im Zu-
sammenhang mit Anwendungen aus verschiedenen Bereichen der Mathematik
an Bedeutung, von denen einE AnfängerIn freilich noch nichts wissen kann. Wir
haben uns bemüht, so oft wie möglich auf solche Bezüge zu verweisen. Das soll
zur Motivation beitragen, denn es platziert die lineare Algebra als Teilgebiet der
Mathematik in dem Geflecht der vielen anderen Teildisziplinen an einer zentra-
len Stelle. In diesem Zusammenhang sind wir stets für weitere Anstöße offen
und freuen uns über Anregungen unserer LeserInnen, die wir in einer späteren
Auflage berücksichtigen können.
Das vorliegende Arbeitsbuch enthält die Aufgaben aus der elften Auflage der
Linearen Algebra von Gerd Fischer, einige Ergänzungsaufgaben sowie deren
Lösungen. Es kann auch mit der zehnten Auflage der Linearen Algebra benutzt
werden. Kapitel, die mit einem Stern versehen sind, können beim ersten Durch-
arbeiten des Stoffes übergangen werden. Dasselbe gilt für Aufgaben mit Stern.
Danken wollen wir all denen, die uns bei der Herstellung dieses Buches un-
terstützt haben. An erster Stelle stehen der Verlag Vieweg und insbesondere
Frau Schmickler-Hirzebruch, die dieses Projekt ermöglicht und unterstützt ha-
ben. Professor Gerd Fischer gilt besonderer Dank für die zahlreichen Gespräche
und die Hilfe bei Details. Stefan Lache hat uns nicht nur durch das Mathematik-
studium als Kommilitone und danach als Freund begleitet, sondern auch frühere
Versionen dieses Buches sehr sorgfältig Korrektur gelesen und uns mit zahlrei-
VI

chen Verbesserungshinweisen unterstützt. Jens Piontkowski hat Teile des Ma-


nuskriptes gewissenhaft durchgesehen und wertvolle Tipps gegeben. Volker So-
linus hat nach schier endlosen Nörgeleien von unserer Seite die Bilder perfekt
erstellt. Ohne diese Personen wäre das ganze Projekt sicher nicht zu einem guten
Ende gelangt.
Düsseldorf, im November 1997 Hannes Stoppel und Birgit Griese

Vorwort zur 9. Auflage


Wenige Zeit nach der achten Auflage gibt es wieder eine neue Auflage. Die Zwi-
schenzeit wurde umfangreich genutzt. Es gibt nun beinahe 25 neue Aufgaben.
Manche sind zu Themenblöcken zusammengefasst, wie beispielsweise algebrai-
sche Kurven, Möbius Transformation oder Codierung und Kryptographie.
Im Laufe der Zeit haben sich zudem viele Ergänzungsaufgaben gesammelt,
zwischen denen in einigen Fällen thematische Verbindungen existieren. Um
den Überblick zu behalten, wurde am Ende des Buches ein Verzeichnis der
Ergänzungsaufgaben mit den behandelten Themen eingefügt.
In dieser Auflage sind erstmalig sämtliche Aufgaben inklusive all ihrer Lösun-
gen komplett enthalten. Bisherige Aufgaben und Lösungen wurden überarbeitet
und ggf. ergänzt, das Literaturverzeichnis eingeschlossen. Hierfür bedanken wir
uns auch bei unseren Leserinnen und Lesern für Hinweise.
Bedanken möchten wir uns insbesondere bei Dennis Jaschek, der Ideen für
neue Aufgaben hatte und in vielen Gesprächen neue Blickweisen auf alte Auf-
gaben ermöglicht hat.
Wir wünschen viel Erfolg und Freude mit Übungen der Linearen Algebra und
hoffen, dass sie die Schönheit der Mathematik sichtbar machen.
Gladbeck, im August 2016 Hannes Stoppel und Birgit Griese
Inhaltsverzeichnis

I Aufgaben 1
0 Lineare Gleichungssysteme 3
0.3 Ebenen und Geraden im Standardraum R3 . . . . . . . . . . . . 3
0.4 Das Eliminationsverfahren von G AUSS . . . . . . . . . . . . . . 4
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 5
0.5 Geraden und Quadratische Kurven im R2 . . . . . . . . . . . . 7
1 Grundbegriffe 11
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 11
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Ringe, Körper und Polynome . . . . . . . . . . . . . . . . . . . 18
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 20
1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Summen von Vektorräumen∗ . . . . . . . . . . . . . . . . . . . 24
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Lineare Abbildungen 26
2.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 26
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ . . . . . . . . . 27
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 28
2.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 28
2.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . 30
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . 31
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 34
2.6 Koordinatentransformationen . . . . . . . . . . . . . . . . . . . 34
2.7 Elementarmatrizen und Matrizenumformungen . . . . . . . . . 35
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 36
3 Determinanten 39
3.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 39
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 40
3.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 41
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 43
VIII

3.3 Minoren∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 45
3.4 Determinante eines Endomorphismus und Orientierung∗ . . . . 46
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 46

4 Eigenwerte 47
4.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 47
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . 48
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 49
4.3 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . 49
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 50
4.4 Trigonalisierung∗ . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.5 Potenzen eines Endomorphismus∗ . . . . . . . . . . . . . . . . 51
4.6 Die Jordansche Normalform∗ . . . . . . . . . . . . . . . . . . . 52
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 54

5 Euklidische und unitäre Vektorräume 56


5.1 Das kanonische Skalarprodukt im Rn . . . . . . . . . . . . . . . 56
5.2 Das Vektorprodukt im R3 . . . . . . . . . . . . . . . . . . . . . 59
5.3 Das kanonische Skalarprodukt im Cn . . . . . . . . . . . . . . . 61
5.4 Bilinearformen und Sesquilinearformen . . . . . . . . . . . . . 61
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 63
5.5 Orthogonale und unitäre Endomorphismen . . . . . . . . . . . . 67
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 68
5.6 Selbstadjungierte Endomorphismen∗ . . . . . . . . . . . . . . . 68
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 69
5.7 Hauptachsentransformation∗ . . . . . . . . . . . . . . . . . . . 69
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 71

6 Dualität∗ 72
6.1 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
6.2 Dualität und Skalarprodukte . . . . . . . . . . . . . . . . . . . 72
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 73
6.3 Tensorprodukte∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.4 Multilineare Algebra∗ . . . . . . . . . . . . . . . . . . . . . . . 76
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 79
IX

II Lösungen 83
0 Lineare Gleichungssysteme 85
0.3 Ebenen und Geraden im Standardraum R3 . . . . . . . . . . . . 85
0.4 Das Eliminationsverfahren von G AUSS . . . . . . . . . . . . . . 88
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 91
0.5 Geraden und Quadratische Kurven im R2 . . . . . . . . . . . . 92
1 Grundbegriffe 98
1.1 Mengen und Abbildungen . . . . . . . . . . . . . . . . . . . . 98
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 109
1.3 Ringe, Körper und Polynome . . . . . . . . . . . . . . . . . . . 116
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 123
1.4 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 133
1.5 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . 134
1.6 Summen von Vektorräumen∗ . . . . . . . . . . . . . . . . . . . 141
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 144
2 Lineare Abbildungen 146
2.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 146
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ . . . . . . . . . 149
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 153
2.3 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 153
2.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . 157
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 161
2.5 Multiplikation von Matrizen . . . . . . . . . . . . . . . . . . . 162
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 171
2.6 Koordinatentransformationen . . . . . . . . . . . . . . . . . . . 173
2.7 Elementarmatrizen und Matrizenumformungen . . . . . . . . . 176
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 179
3 Determinanten 184
3.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 184
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 188
3.2 Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . 191
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 204
3.3 Minoren∗ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 215
X

3.4 Determinante eines Endomorphismus und Orientierung∗ . . . . 216


Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 219
4 Eigenwerte 220
4.1 Beispiele und Definitionen . . . . . . . . . . . . . . . . . . . . 220
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 222
4.2 Das charakteristische Polynom . . . . . . . . . . . . . . . . . . 223
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 226
4.3 Diagonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . 227
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 233
4.4 Trigonalisierung∗ . . . . . . . . . . . . . . . . . . . . . . . . . 235
4.5 Potenzen eines Endomorphismus∗ . . . . . . . . . . . . . . . . 239
4.6 Die Jordansche Normalform∗ . . . . . . . . . . . . . . . . . . . 242
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 253
5 Euklidische und unitäre Vektorräume 254
5.1 Das kanonische Skalarprodukt im Rn . . . . . . . . . . . . . . . 254
5.2 Das Vektorprodukt im R3 . . . . . . . . . . . . . . . . . . . . . 260
5.3 Das kanonische Skalarprodukt im Cn . . . . . . . . . . . . . . . 264
5.4 Bilinearformen und Sesquilinearformen . . . . . . . . . . . . . 266
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 278
5.5 Orthogonale und unitäre Endomorphismen . . . . . . . . . . . . 288
Ergänzungsaufgabe . . . . . . . . . . . . . . . . . . . . . . . . 293
5.6 Selbstadjungierte Endomorphismen∗ . . . . . . . . . . . . . . . 293
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 295
5.7 Hauptachsentransformation∗ . . . . . . . . . . . . . . . . . . . 297
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 302
6 Dualität∗ 304
6.1 Dualräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304
6.2 Dualität und Skalarprodukte . . . . . . . . . . . . . . . . . . . 306
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 309
6.3 Tensorprodukte∗ . . . . . . . . . . . . . . . . . . . . . . . . . . 309
6.4 Multilineare Algebra . . . . . . . . . . . . . . . . . . . . . . . 321
Ergänzungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 329
Literaturverzeichnis 332
Sachwortverzeichnis 334
Symbolverzeichnis 340
Verzeichnis der Ergänzungsaufgaben 342
Teil I

Aufgaben
Kapitel 0
Lineare Gleichungssysteme
Die erste Begegnung mit Aufgaben zur Linearen Algebra kann verwirren. Es ist oft
nicht unmittelbar einzusehen, dass Zusammenhänge, die anschaulich klar und ersicht-
lich scheinen, überhaupt bewiesen werden müssen. Hier sollten wir uns ein für alle mal
klar machen, dass eine Skizze oder ein Schaubild kein Beweis im streng mathematischen
Sinne ist. Bisweilen kann eine Skizze eine Beweisidee viel besser deutlich machen als
ein korrekt aufgeschriebener Beweis mit vielen Indizes und Fallunterscheidungen. Diese
Schlampigkeit“ dürfen wir uns aber höchstens leisten, wenn wir die Formalitäten be-

herrschen. Deshalb muss ein echter Beweis, um allgemein akzeptiert zu sein, manchmal
sehr formell aussehen. Diese Formalität kann auch helfen, die Gedanken zu ordnen und
den Beweis strukturiert aufzuschreiben.
Wenn wir mit dem eigentlichen Beweis beginnen wollen, müssen wir uns zuvor klar-
gemacht haben, wie er aufgebaut werden soll. Wie sollen wir vorgehen? Ist ein Wi-
derspruchsbeweis (auch Kontraposition genannt) notwendig, oder kann die Behauptung
direkt aus den Voraussetzungen gefolgert werden? Wie negiert man im Falle der Kontra-
position eine Aussage? Wie können die Voraussetzungen und die Behauptung sinnvoll
in eine mathematische Aussage umgesetzt werden? Was genau muss eigentlich gezeigt
werden? Gibt es Vereinfachungen oder müssen Fallunterscheidungen gemacht werden?
All diese Fragen werden wir im Lösungsteil behandeln, wenn sie konkret auftauchen.

0.3 Ebenen und Geraden im Standardraum R3


1. Zeigen Sie, dass für zwei Punkte v, w ∈ Rn die folgenden Bedingungen äquivalent
sind:
i) v ̸= 0, und es gibt kein ρ ∈ R mit w = ρ · v.
ii) w ̸= 0, und es gibt kein ρ ∈ R mit v = ρ · w.
iii) Sind λ , µ ∈ R mit λ v + µ w = 0, so folgt notwendigerweise λ = µ = 0.
Man nennt v und w linear unabhängig, falls eine der obigen Bedingungen erfüllt ist. v
und w heißen linear abhängig, falls sie nicht linear unabhängig sind. Im untenstehenden
Bild sind v und w linear unabhängig, v und w′ linear abhängig.

2. a) Beweisen Sie, dass eine Teilmenge E des R3 genau dann eine Ebene ist, wenn es
Vektoren u, v, w ∈ R3 gibt, so dass v und w linear unabhängig sind und
E = u + Rv + R w .
{ }
b) Finden Sie für die Ebene E = (x1 , x2 , x3 ) ∈ R3 : 3x1 − 2x2 + x3 = −1 eine Parame-
trisierung.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_1
4 0 Lineare Gleichungssysteme

c) Geben Sie für die in Parameterdarstellung gegebene Ebene


E = (1, 2, 3) + R · (4, 5, 6) + R · (7, 8, 9)
eine beschreibende lineare Gleichung an.
3. Zeige Sie: Sind x, y, z ∈ R3 drei Punkte, die nicht auf einer Geraden liegen, so gibt es
genau eine Ebene E ⊂ R3 , die x, y und z enthält, nämlich
E = x + R · (x − y) + R · (x − z) .

0.4 Das Eliminationsverfahren von G AUSS


Lineare Gleichungssysteme sind in der linearen Algebra sehr wichtig. Man muss sie ein-
fach lösen können. Zur weiteren Übung empfehlen wir daher die Ergänzungsaufgaben
am Ende dieses Abschnittes.
1. Lösen Sie folgende lineare Gleichungssysteme:
a)
x2 +2x3 +3x4 = 0
x1 +2x2 +3x3 +4x4 = 0
2x1 +3x2 +4x3 +5x4 = 0
3x1 +4x2 +5x3 +6x4 = 0
b)
−6x1 +6x2 +2x3 −2x4 = 2
−9x1 +8x2 +3x3 −2x4 = 3
−3x1 +2x2 + x3 = 1
−15x1 +14x2 +5x3 −4x4 = 5
2. Geben Sie die Lösung des linearen Gleichungssystems an, das durch die folgende
erweiterte Koeffizientenmatrix gegeben ist:
 
1 −1 2 −3 7
4 0 3 1 9
 2 −5 1 0 −2 
.
3 −1 −1 2 −2
3. Bestimmen Sie, für welche t ∈ R das folgende lineare Gleichungssystem in Matrix-
darstellung lösbar ist und geben Sie gegebenenfalls die Lösung an.
 
2 4 2 12t
 2 12 7 12t + 7 
1 10 6 7t + 8
4. Lösen Sie das folgende lineare Gleichungssystem auf einem Taschenrechner mit einer
Rechengenauigkeit von n Stellen hinter dem Komma (Abschneiden weiterer Stellen oh-
ne Rundung!) für ε = 10−k für größer werdendes k 6 n, und zwar einmal mit dem Pivot
ε und einmal mit dem maximalen Zeilenpivot“ 1 der ersten Spalte.

x+y = 2,
εx + y = 1 .
Beschreiben Sie den geometrischen Hintergrund dieser Umformungen.
0.4 Das Eliminationsverfahren von G AUSS 5

Ergänzungsaufgaben
Lösen Sie die linearen Gleichungssysteme.
E1.
x +2y −z = −1
3x −4y +5z = 9
−5x +y −7z = −21

E2. ( )
2 −3 15 −137
1 8 −10 203
−2 −16 20 −406

E3.
3a −2b +6c −7d = −177
a +2b −3c +8d = 162
−4a +3b −7c +2d = 111
−6a −b +2c −d = −32

E4. ( )
1 −1 −6 8 2
−3 2 −7 −2 −10

E5.  1 −1 17 −8 1 −3 
 3 −7 8 −1 −1 14 
−2 7 −1 2 3 −8
0 1 2 −7 2 −7

E6.  
1 1 −2 3 −1 8
 −2 −1 0 2 2 −8 
 1 3 −1 0 3 17 
 
0 −1 4 −1 −2 4
3 2 −1 −1 0 18

E7. ( )
1 −3 2 −3
−2 t −1 13
−3 1 −3 8

E8. ( )
1 2 −3 3
−1 6 −5 21
−3 2 1 3t

E9.  −1 2 0 4 0
 3 7 −8 9 0 
−2 −3 5 2 0
2 3 a b 0
6 0 Lineare Gleichungssysteme

E10. ( )
2 0 8 2a
3 −4 b 11
17 −1 0 2

Die Matrizen in den folgenden Aufgaben


√ enthalten komplexe Zahlen als Einträge, vgl.
Beispiel 1.3.4 b). Hierbei steht i := −1 für die imaginäre Einheit.
E11. ( )
i 2 − i 8 + 3i −24 − 10i
9 2i 7 − i −1 + 14i
2 4 + i 6 + 10i −9 − 31i

E12.  2 −i 1 + i 3 5 + 2i 
 −1 2 − i 3 i 4 − 2i 
7 8+i 2i 9 16 + 20i
3i 1 + i 10 + i 2 11 − 2i

E13. ( )
i 3 2 + i −7 − i 0
9 4 − i 5i 8 0

E14.  1 1 + i −4 5i −21i 
 i −1 + i −4i −5 21 
8 −2i −1 1 − i 7 + 9i
2i 0 3 −i −2 + 11i

E15. ( )
8 2 i −1 10 + 4i
1 −3 2 0 5−i
−4 12i −7 1 + i −33 − 10i
0.5 Geraden und Quadratische Kurven im R2 7

0.5 Geraden und Quadratische Kurven im R2

Ergänzungsaufgaben
Die Visualisierung von Objekten und Zusammenhängen ist der Schlüssel zum Verständ-
nis. Dies kann man gerade auch für Geraden und quadratische Kurven üben. Aus diesem
Grund haben wir einen entsprechenden Abschnitt ergänzt, der eine Einführung in diese
Kurven enthält sowie einen weiteren Blick auf Geraden im Raum wirft. Ferner handelt es
sich bei Kreisen, Ellipsen und Hyperbeln um Quadriken, die in den Ergänzungsaufgaben
E12 bis E14 in Abschnitt 5.4 betrachtet werden.

Geraden
E1.
a) Erklären Sie, warum durch 2x − 3y + 24 = 0 eine Gerade gegeben ist.
b) Notieren Sie eine vektorielle Schreibweise auf dieser Geraden.
c) Bestimmen Sie die Schnittpunkte der Geraden aus Teil a) mit den Achsen des Koor-
dinatensystems.

Kreise
E2. Der Kreis vom Radius r um den Punkt t(x0 , y0 ) sind gegeben durch

(x − x0 )2 + (y − y0 )2 = r2 . ~

a) Bestimmen Sie den Mittelpunkt und den Radius des Kreises zur Gleichung

x2 − 4x + y2 + 6y = 12 . ~~

b) Notieren Sie eine mögliche Parametrisierung des Kreises aus Teil a).

Ellipsen
2
x2
E3. Eine Ellipse ist gegeben durch a2
+ by2 = 1 mit a, b ∈ R r {0}.
a) Bestimmen Sie die Schnittpunkte der Ellipse mit den Achsen des Koordinatensys-
tems für die Fälle a = 1 und b = 2.
b) Geben Sie eine Parametrisierung der Ellipse an.

E4. Gegeben sei eine Ellipse. Zwei Punkte F1 (−e, 0) und F2 (e, 0) heißen Brennpunkte
der Ellipse, wenn e2 = a2 − b2 gilt. Den Abstand e der Brennpunkte vom Ursprung nennt
man lineare Exzentrizität der Ellipse. Ferner bezeichnet man die numerische Exzentri-
zität (in Zukunft einfach Exzentrizität) durch ε = ae .
Jeder Punkt M(x, y) der Ellipse besitzt einen Abstand r1 vom Punkt F1 und einen
Abstand r2 von F2 , vgl. Abbildung 0.1.
8 0 Lineare Gleichungssysteme

M(x, y)
r1
r2
−e e x

Bild 0.1: Abstände eines Punktes der Ellipse von den Brennpunkten

Es stellt sich die Frage, wie sich r1 und r2 bestimmen lassen. Dies wird jetzt in Angriff
genommen. (Eine Bedeutung der Längen r1 und r2 liegt unter Anderem darin, dass sich
mit einem Faden der Länge r1 + r2 eine Ellipse zeichnen lässt.)
a) Zeigen Sie, dass gilt:
r1 = a + ε · x , (0.1)
r2 = a − ε · x . (0.2)

b) Für jeden Punkt einer Ellipse gilt r1 + r2 = 2a.


c) In Abbildung 0.2 ist an den Stellen − εa und εa jeweils die Direktrix (auch Leitlinie
genannt). Ein Punkt M(x, y) einer Ellipse besitzt jeweils einen Abstand d1 und d2 von
den Direktricen.
Zeigen Sie, dass dr11 = dr22 = ε gilt.
d) Zeigen Sie, dass es sich bei der Lösungsmenge der Gleichung
2x2 + 4x + 3y2 − 12y = 1
um eine Ellipse handelt. Untersuchen Sie diese Ellipse.

y
− εa a
ε
d2
d1
M(x, y)
r1
r2
−e e x

Bild 0.2: Abstände eines Punktes von den Direktricen einer Ellipse
0.5 Geraden und Quadratische Kurven im R2 9

Hyperbeln
E5. Gegeben seien die Gleichungen
2
x2
i) 2 − y3 = 1 und
2
x2
ii) 2 − y3 = −1.
a) Bestimmen Sie die Schnittpunkte der Graphen mit den Achsen.
b) Stellen Sie die so beschriebenen Punktmengen graphisch dar.
Hinweis. Wir empfehlen für derartige Aufgaben wolframalpha.com.

r1 M(x, y)
r2
x
−e e

Bild 0.3: Abstände eines Punktes der Hyperbel von den Brennpunkten

2 2
E6. Ähnlich zur Ellipse betrachten wir für allgemeine Hyperbeln ax2 − by2 = 1 die lineare
Exzentrizität e mit e2 = a2 + b2 und die numerische Exzentrizität (im Zukunft einfach
Exzentrizität) ε = ae . Außerdem haben wir die Brennpunkte F1 (−e, 0) und F2 (e, 0).
Wie in Abbildung 0.3 werden zu einem Punkt M(x, y) der Hyperbel die Abstände des
Punktes zu den Brennpunkten durch r1 und r2 bezeichnet.
a) Zeigen Sie, dass

r1 = x · ε + a , (0.3)
r2 = x · ε − a (0.4)

für Punkte M auf der rechten Linse bzw. r1 = −(x · ε + a) und r2 = −(x · ε − a) für
Punkte auf der linken Linse der Hyperbel gilt.
b) Für jeden Punkt auf einer Hyperbel gilt
{
2a für Punkte auf der linken Seite
r1 − r2 = −2a für Punkte auf der rechten Seite
10 0 Lineare Gleichungssysteme

y
− εa a
ε
d1

d2 M(x, y)
r1
r2
x
−a · ε x a·ε

Bild 0.4: Abstände eines Punktes der Hyperbel von den Brennpunkten

c) In Abbildung 0.4 sind Direktrizen (oder Leitlinien) d1 und d2 der Hyperbel einge-
zeichnet. Zeigen Sie, dass für die Abstände des Punktes M(x, y) der Hyperbel zu den
Direktrizen gilt:
r1 r2
= =ε.
d1 d2
d) Zeigen Sie, dass y = ab x und y = − ab x Asymptoten der Hyperbeln sind (vgl. Abbil-
dung 0.5).

y
b
y= a

−a a x
−b

y = − ab
Bild 0.5: Annäherung der Hyperbel an die Asymptoten
Kapitel 1
Grundbegriffe
Wie schon der Titel dieses Kapitels verrät, werden hier grundlegende Begriffe erklärt und
eingeübt. Dabei handelt es sich nur in den Teilen 1.4 bis 1.6 um spezielle Grundlagen
der linearen Algebra. 1.1 bis 1.3 gehören mit ihren zum Teil klassischen Aufgaben (und
Lösungen) zur Grundbildung und könnten daher einigen unserer LeserInnen, die bereits
gewisse Vorkenntnisse haben, bekannt oder sogar geläufig sein. Sollte das nicht der Fall
sein, ist hier eine gute Gelegenheit, bisher Versäumtes nachzuholen bzw. zu vertiefen.
Unsere Lösungen sind in der Regel ausführlich gehalten, so dass sie auch AnfängerInnen
ausreichend Hilfestellung bieten können.

1.1 Mengen und Abbildungen


1. Beweisen Sie die folgenden Rechenregeln für die Operationen mit Mengen:
a) X ∩Y = Y ∩ X, X ∪Y = Y ∪ X,
b) X ∩ (Y ∩ Z) = (X ∩Y ) ∩ Z, X ∪ (Y ∪ Z) = (X ∪Y ) ∪ Z,
c) X ∩ (Y ∪ Z) = (X ∩Y ) ∪ (X ∩ Z), X ∪ (Y ∩ Z) = (X ∪Y ) ∩ (X ∪ Z),
d) X r (M1 ∩ M2 ) = (X r M1 ) ∪ (X r M2 ), X r (M1 ∪ M2 ) = (X r M1 ) ∩ (X r M2 ).
2. Sei f : X → Y eine Abbildung. Zeigen Sie:
a) Ist M1 ⊂ M2 ⊂ X, so folgt f (M1 ) ⊂ f (M2 ).
Ist N1 ⊂ N2 ⊂ Y , so folgt f −1 (N1 ) ⊂ f −1 (N2 ).
b) M ⊂ f −1 ( f (M)) für M ⊂ X, f ( f −1 (N)) ⊂ N für N ⊂ Y .
c) f −1 (Y r N) = X r f −1 (N) für N ⊂ Y .
d) Für M1 , M2 ⊂ X und N1 , N2 ⊂ Y gilt:
f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 ), f −1 (N1 ∪ N2 ) = f −1 (N1 ) ∪ f −1 (N2 ),
f (M1 ∪ M2 ) = f (M1 ) ∪ f (M2 ), f (M1 ∩ M2 ) ⊂ f (M1 ) ∩ f (M2 ).
Finden Sie ein Beispiel, in dem f (M1 ∩ M2 ) ̸= f (M1 ) ∩ f (M2 ) gilt!
3. Seien f : X → Y , g : Y → Z Abbildungen und g ◦ f : X → Z die Komposition von f
und g. Dann gilt:
a) Sind f und g injektiv (surjektiv), so ist auch g ◦ f injektiv (surjektiv).
b) Ist g ◦ f injektiv (surjektiv), so ist auch f injektiv (g surjektiv).
4. Untersuchen Sie die folgenden Abbildungen auf Injektivität und Surjektivität:
a) f1 : R2 → R, (x, y) 7→ x + y, b) f2 : R2 → R, (x, y) 7→ x2 + y2 − 1,
c) f3 : R2 → R2 , (x, y) 7→ (x + 2y, 2x − y),

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_2
12 1 Grundbegriffe

5. Zwei Mengen X und Y heißen gleichmächtig genau dann, wenn es eine bijektive
Abbildung f : X → Y gibt. Eine Menge X heißt abzählbar unendlich, falls X und N
gleichmächtig sind.
a) Zeigen Sie, dass Z und Q abzählbar unendlich sind.
b) Zeigen Sie, dass R nicht abzählbar unendlich ist.
c) Für eine nichtleere Menge M sei Abb (M, {0, 1}) die Menge aller Abbildungen von
M nach {0, 1}. Zeigen Sie, dass M und Abb (M, {0, 1}) nicht gleichmächtig sind.
6. Ein Konferenzhotel für Mathematiker hat genau N Betten. Das Hotel ist bereits voll
belegt, aber die Mathematiker lassen sich nach Belieben innerhalb des Hotels umquar-
tieren. Das Hotel soll aus wirtschaftlichen Gründen stets voll belegt sein, und wenn
möglich, sollen alle neu ankommenden Gäste untergebracht werden. Was macht man in
folgenden Fällen?
a) Ein weiterer Mathematiker trifft ein.
b) Die Insassen eines Kleinbusses mit n Plätzen suchen Unterkunft.
c) Ein Großraumbus mit N Personen kommt an.
d) n Großraumbusse treffen ein.
e) N Großraumbusse fahren vor.
Ergänzungsaufgabe
E1. Es seien M und N endliche Mengen. Zeigen Sie, dass die Menge Abb (M, N) endlich
ist, und bestimmen Sie die Anzahl ihrer Elemente.

1.2 Gruppen
Bevor wir uns mit den Aufgaben zu Gruppen beschäftigen, sollten wir uns nochmals vor
Augen führen, dass man Gruppen multiplikativ oder additiv schreiben kann. (Letzteres
tut man üblicherweise, wenn eine Gruppe kommutativ ist.) Das ist deshalb so wichtig,
weil die Gruppenaxiome unterschiedlich aussehen, je nachdem, wie die Verknüpfung
geschrieben ist. Das neutrale Element einer multiplikativen Gruppe heißt Eins, das einer
additiven Gruppe null. Entsprechend werden die inversen Elemente mit a−1 bzw. mit −a
bezeichnet.
1. Sei G eine Gruppe mit aa = e für alle a ∈ G, wobei e das neutrale Element von G
bezeichnet. Zeigen Sie, dass G abelsch ist.
2. Bestimmen Sie (bis auf Isomorphie) alle Gruppen mit höchstens vier Elementen. Wel-
che davon sind abelsch?
3. Welche der folgenden Abbildungen sind Gruppenhomomorphismen?
a) f1 : Z → Z, z 7→ 2z , b) f2 : Z → Z, z 7→ z + 1 ,
c) f3 : Z → Q∗ , z 7→ z2 + 1 , d) f4 : C∗ → R∗ , z 7→ |z| ,
e) f5 : C → R, z 7→ |z| , f) f6 : Z/pZ → Z/pZ, z 7→ z p .
Dabei ist die Verknüpfung in Z, C und Z/pZ jeweils die Addition, in Q∗ , R∗ und C∗
jeweils die Multiplikation und p eine Primzahl.
1.2 Gruppen 13

4. Sei G eine Gruppe und A ⊂ G. Die von A erzeugte Untergruppe erz(A) ist definiert
durch
erz(A) = {a1 · . . . · an : n ∈ N, ai ∈ A oder a−1
i ∈ A} .
erz(A) ist somit die Menge aller endlichen Produkte von Elementen aus A bzw. deren
Inversen. Zeigen Sie, dass erz(A) die kleinste“ Untergruppe von G ist, die A enthält,

d.h.
i) erz(A) ⊂ G ist eine Untergruppe.
ii) Ist U ⊂ G eine Untergruppe mit A ⊂ U, so folgt erz(A) ⊂ U.
Wie sieht erz(A) aus für den Fall, dass A einelementig ist?
5. Für eine natürliche Zahl n > 3 sei d ∈ S(R2 ) die Drehung um den Winkel 2π /n und
s ∈ S(R2 ) die Spiegelung an der x-Achse. Die Diedergruppe Dn ist definiert durch
Dn := erz({s, d}).
a) Wie viele Elemente hat Dn ?
b) Geben Sie eine Gruppentafel von D3 an.
6. Eine Gruppe G heißt zyklisch, falls es ein g ∈ G gibt mit G = erz({g}).
a) Wie sieht die Gruppentafel einer endlichen zyklischen Gruppe aus?
b)∗ Zeigen Sie, dass jede zyklische Gruppe entweder isomorph zu Z oder Z/nZ (n ∈ N
geeignet) ist.
7. Zeigen Sie: Ist G eine abelsche Gruppe und H ⊂ G eine Untergruppe, so ist durch
x ∼ y ⇔ xy−1 ∈ H
eine Äquivalenzrelation auf G erklärt. Sei G/H := G/ ∼ die Menge der Äquivalenz-
klassen, und die zu x ∈ G gehörige Äquivalenzklasse sei mit x bezeichnet. Sind
x, x′ , y, y′ ∈ G mit x ∼ x′ und y ∼ y′ , so ist xy ∼ x′ y′ . Somit kann man auf G/H durch
x · y := xy
eine Verknüpfung erklären.
Zeigen Sie, dass G/H auf diese Weise zu einer abelschen Gruppe wird und für
G = Z, H = nZ genau die in 1.2.7 definierten zyklischen Gruppen Z/nZ entstehen.
8. Man gebe ein Beispiel einer nicht assoziativen Verknüpfung aus der Menge G =
{1, 2, 3}, so dass für alle a ∈ G die Translationen τa und a τ aus 1.2.4 surjektiv sind.
Ergänzungsaufgaben
E1. Es sei nZ = {n · a : a ∈ Z} und Z/nZ = {0̄, 1̄, . . . , n − 1} mit ā = a + mZ wie in
[Fi1], Abschnitt 1.2.7. Außerdem seien m, n ∈ N r {0} mit n|m, d.h. n ist ein Teiler von
m. Zeigen Sie, dass dann gilt:
a) mZ ⊂ nZ ist eine Untergruppe bzgl. der Addition,
b) Die Abbildung
φ : Z/nZ → Z/mZ , a + nZ 7→ mn · a + mZ ,
ist ein injektiver Gruppenhomomorphismus.
Mit Hilfe dieser Abbildung kann Z/nZ auch als Untergruppe von Z/mZ betrachtet
werden.
14 1 Grundbegriffe

E2. Bestimmen Sie alle Untergruppen von (Z, +).


E3. U1 ,U2 seien Untergruppen einer Gruppe (G, ·). Zeigen Sie:
a) U1 ∪U2 ist genau dann eine Untergruppe von G, wenn U1 ⊆ U2 oder U2 ⊆ U1 .
b) Wenn U1 ̸= G und U2 ̸= G, dann ist auch U1 ∪U2 ̸= G.
c) Es sei U1U2 := {u1 u2 : u1 ∈ U1 , u2 ∈ U2 }. Dann gilt: U1U2 ⊆ G ist genau dann eine
Untergruppe von G, wenn U1U2 = U2U1 .

E4. Zeigen Sie, dass (G, ·) für G = {e, a, b, c} mit der Verknüpfung
· e a b c
e e a b c
a a b c e
b b c e a
c c e a b
eine Gruppe bildet. Sie heißt Klein’sche Vierergruppe.
E5. Zeigen Sie, dass jede Gruppe mit höchstens vier Elementen abelsch ist.
Drehungen und Spiegelungen
E6. Das in Abbildung 1.1 dargestellte Quadrat kann auf unterschiedliche Weisen auf sich
selbst abgebildet werden. Dann liegen die Ecken an anderen Stellen. (Beispielsweise
Drehung um 90◦ . Dann liegt die Ecke 1 dort, wo vorher 2 lag.) Solche Abbildungen
nennt man Deckabbildungen. Einige dieser Abbildungen sind:

• Drehung um 90◦ gegen den Uhrzeigersinn – Abbildung d90 ,

• Drehung um 180◦ gegen den Uhrzeigersinn – Abbildung d180 ,

• Drehung um 270◦ gegen den Uhrzeigersinn – Abbildung d270 ,

• Drehung um 0◦ – Abbildung id.

Unter einer Drehung wird jede Ecke auf eine andere abgebildet. Das lässt sich mithilfe
einer Tabelle darstellen, in deren erster Zeile sich die Zahlen vor der Drehung befinden,
wohingegen in der zweiten Zeile die Verteilung[ nach der ]Drehung notiert wird. So lässt
1 2 3 4
sich beispielsweise die Drehung d90 durch 2 3 4 1 beschreiben. Es handelt sich
um Spezialfälle von Permutationen, bei denen die Elemente eines Tupels untereinander
vertauscht werden. Für Genaueres zu Permutationen vgl. [Fi1], Abschnitt 3.2.
a) Notieren Sie die vier Drehungen in der Schreibweise für Permutationen. (Eigentlich
nur noch drei, da eine bereits oben notiert ist.)
b) Zeigen Sie, dass diese Abbildungen mit der Hintereinanderausführung ◦ eine Gruppe
bilden. Untersuchen Sie, ob es sich bei der Menge D4 der Drehungen mit der Hinter-
einanderausführung um eine abelsche Gruppe handelt. Nutzen Sie dafür eine Tabelle
1.2 Gruppen 15

@
3@@
@
@ 2
@
@
@
b @@
@@
@
@
@
@
4 @@1
@
@
c a d

Bild 1.1: Ein Quadrat kann durch Drehungen und Spiegelungen auf sich selbst
abgebildet werden

wie diese: ◦ id d90 d180 d270


id
d90
d180
d270
Erklären Sie, dass es sich bei der Menge D4 der Drehungen mit der Hintereinander-
ausführung um Gruppe handelt.
c) Zusätzlich seien die Spiegelungen S4 gegeben:
• Spiegelung an der senkrechten Achse a – Abkürzung sa ,
• Spiegelung an der waagerechten Achse b – Abkürzung sb ,
• Spiegelung an der Diagonale c – Abkürzung sc ,
• Spiegelung an der Diagonale d – Abkürzung sd ,
• id von der Drehungen.
Zeigen Sie an Beispielen, dass die Spiegelungen S4 in Verbindung mit der Hinterein-
anderausführung keine Gruppe bilden können.

d) Welche Struktur trägt die Vereinigungsmenge D4 ∪ S4 ? Beweisen Sie Ihre Annahme.

Weierstraß-Kurven
spielten und spielen in unterschiedlichen Bereichen der Mathematik und der Anwendun-
gen eine Rolle. So waren sie für den Beweis der Fermatschen Vermutung von Bedeutung.
Ferner – und darauf werden wir hier eingehen – finden sie Anwendung in der Codierung
und Kryptographie. Durch die dortige Anwendung zeigt sich etwa seit den 1980er Jahren
eine Verbindung zwischen geometrischen Objekten der Mathematik und der Praxis.
16 1 Grundbegriffe

Bild 1.2: Kurve mit Singularität im Ursprung

In der Codierung und der Kryptographie spielen Weierstraß-Kurven eine Rolle. Da-
hinter verbergen sich die Wertepaare (x; y) ∈ R2 , welche die Gleichung
E : y2 = x3 + a · x + b mit a, b ∈ K
eines endlichen Körpers K erfüllen. Durch den hier betrachteten Algorithmus zur Co-
dierung und Decodierung lässt sich eine Gruppenstruktur auf den elliptischen Kurven
definieren.
Für die Codierung brauchbare elliptische Kurven müssen eine weitere Bedingung
erfüllen, die Quadratfreiheit. Dies bedeutet, dass es keine c, d ∈ K geben darf mit
x3 + ax + b = (x + c)2 (x + d) .
Anschaulich bedeutet dies, dass die elliptische Kurve keine Singularität besitzen darf,
d.h. keinen Schnittpunkt der Äste. Ein Beispiel für eine Singularität ist in Abbildung 1.2
zu sehen. In diesem Fall kann ein Problem durch mangelnde Eindeutigkeit auftreten.

Ab jetzt setzen wir voraus, dass char(K) ̸= 2, 3 für die betrachteten Körper K ⊂ Z gilt.
E7. Zeigen Sie, dass für eine Weierstraß-Kurve die folgenden Bedingungen äquivalent
sind:
a) 4a3 + 27b2 ̸= 0,
b) die Quadratfreiheit.
Aus der Schulzeit kennt man den Satz von Vieta für Polynome vom Grad 2:
Es seien p, q ∈ R und x2 + p · x + q ein Polynom. Für Lösungen x1 , x2 der Gleichung
x2 + p · x + q = 0 gilt dann
p = −(x1 + x2 ) und q = x1 · x2 .
Die Formel lässt sich auf Polynome beliebigen Grades in C[x] wie folgt übertragen:
Für ein Polynom
xn + an−1 xn−1 + . . . + a1 x + a0
existieren Nullstellen x1 , . . . , xn ∈ C mit
n
∏(x − xi ) = (x − x1 )(x − x2 ) · . . . · (x − xn ) .
i=1
1.2 Gruppen 17

Dabei gilt für i = 1, . . . , n


ai = (−1)n−i · pn−i mit pk := ∑ xi1 · xi2 · . . . · xik .
16i1 <i2 <...<ik 6n

E8. Beweisen Sie diese Gleichungen.


Eine graphisch darstellbare Addition von Punkten im R2 mit Hilfe einer Kurve ist wie
folgt definierbar:
Man hält eine Weierstraß-Kurve E fest, wählt zwei Punkte P und Q auf der Kurve
und legt dann durch P und Q eine Gerade. Für den Fall, dass die Gerade einen dritten
Schnittpunkt S mit der Kurve besitzt, spiegelt man diesen Punkt an der x-Achse und
erreicht damit einen Punkt R. Diesen Punkt R definiert man als Summe von P und Q, und
schreibt R := P ⊕ Q.
Wir werden zeigen, dass die Punkte einer Weierstraß-Kurve mit dieser Addition eine
Gruppe bilden. Hierfür müssen wir die Eigenschaften dieser Addition genau untersu-
chen, wobei Fallunterscheidungen notwendig sind, und Spezialfälle auftreten.
Im Fall P = Q legt man an P eine Tangente an den Graphen der elliptischen Kurve
und nimmt den weiteren Schnittpunkt der Gerade mit der Kurve als P ⊕ P =: 2 ⊙ P.
Weitere spezielle Fälle ergeben, wenn die Tangente an die Kurve parallel zur y-Achse
verläuft und damit keinen weiteren Schnittpunkt mit der Kurve im Endlichen besitzt oder
die Schnittpunkte P und Q übereinander in Koordinatensystem liegen, womit die Gerade
durch sie keinen weiteren Schnittpunkt mit der Kurve im Endlichen besitzt. Aus diesem
Grund nimmt man den Punkt O im Unendlichen hinzu, den man ferner zum neutralen
Element der Addition macht.
Es ergeben sich damit die folgenden Regeln der Addition:

1. Hat man zwei Punkte P und Q auf einer Kurve, die beide nicht im Unendlichen
liegen und ungleich sind, so dass die Gerade PQ die Kurve in einem weiteren
Punkt S schneidet, wird P ⊕ Q := R := −S definiert.

2. Ist P ̸= O, also ein Punkt im endlichen Bereich, so hat P Koordinaten (xP , yP ).


Man definiert −P durch −(xP , yP ) := (xP , −yP ), was anschaulich der Spiegelung
des Punktes an der x-Achse entspricht.
Aus Symmetriegründen einer Weierstraß-Kurve liegt −P genau dann in der Kur-
ve, wenn P in der Kurve liegt.

3. Ist P = O (also der Punkt im Unendlichen), so definiert man −P := O und P ⊕


Q := Q für alle Q ∈ E. Damit ist O ein neutrales Element der Addition.

4. Gilt Q = −P, wird P ⊕ Q := O gesetzt.

5. Falls P = Q gilt, wähle als Gerade die Tangente an P. S ist dann die zweite Schnitt-
punkt mit der Kurve. Dann definiert man P ⊕ Q := R = −S.
18 1 Grundbegriffe

6. Für den Fall, dass die Gerade in einem der Fälle 1 bis 5 parallel zur y-Achse
verläuft, wählt man R = O.
E9. Weisen Sie nach, dass durch diese Verknüpfung ⊕ eine Gruppe auf den Weierstraß-
Kurven
E : y2 = x3 + a · x + b mit a, b ∈ Z
definiert wird, die keine Singularität besitzen. Genauer gesagt: Gegeben seien R(xR , yR ),
P(xP , yP ) und Q(xQ , yQ ) mit xi , y j ∈ R und R = P ⊕ Q. Zeigen Sie:
yQ −yP
a) Für den Fall P ̸= Q und xP ̸= xQ gilt für λ = xQ −xP
xR = λ − xP − xQ2

yR = −yP + λ (xP − xR ) ,
3xP2 +a
Im Fall P = Q gilt für λ = 2yP
xR = λ 2 − 2xP ,
yR = −yP + λ (xP − xR ) .
b) Zeigen Sie, dass die Menge der Weierstraß-Kurven mit ⊕ eine abelsche Gruppe bil-
det.

Hinweis: Verwenden Sie dabei den Satz von Vieta.


E10. Es sei p prim, Z p := Z/pZ, und
E : y2 = x3 + a · x + b mit a, b ∈ Z p .
eine Weierstraß-Kurve ohne Singularität. Gegeben seien R(xR , yR ), P(xP , yP ) und Q(xQ , yQ )
mit xi , y j ∈ Z p . Zeigen Sie für R = P ⊕ Q:
yQ −yP
a) Für den Fall P ̸= Q gilt gilt für λ = xQ −xP mod p
xR = λ − xP − xQ mod p
2

yR = −yP + λ (xP − xR ) mod p .


3xP2 +a
Im Fall P = Q gilt für λ = 2yP mod p
xR = λ 2 − 2xP mod p ,
yR = −yP + λ (xP − xR ) mod p .
b) Zeigen Sie, dass die Menge der Weierstraß-Kurven mit ⊕ eine abelsche Gruppe ist.

1.3 Ringe, Körper und Polynome


1. Bestimmen Sie (bis auf Isomorphie) alle Körper mit drei bzw. vier Elementen.
2. K und K ′ seien zwei Körper und φ : K → K ′ ein Ringhomomorphismus. Zeigen Sie,
dass φ entweder injektiv oder der Nullhomomorphismus ist.
3. Ist R ein Ring, M eine beliebige nichtleere Menge und S = Abb (M; R) die Menge aller
Abbildungen von M nach R, so ist auf S durch
( f + g)(m) := f (m) + g(m) , ( f · g)(m) := f (m) · g(m) ,
1.3 Ringe, Körper und Polynome 19

eine Addition und eine Multiplikation erklärt.


a) Zeigen Sie, dass S auf diese Weise zu einem Ring wird.
b) Ist S ein Körper, falls R ein Körper ist?
4.∗ Sei p ∈ N eine Primzahl und n ∈ N r {0}. Zeigen Sie, dass es einen Körper mit pn
Elementen gibt.
5. Sei K ′ ein Körper und K ein Unterkörper von K ′ .
Zeigen Sie: Sind f , g ∈ K[t]∗ , q ∈ K ′ [t] mit f = qg, so folgt bereits q ∈ K[t].
6. Sei K ein Körper und x0 , . . . , xn , y0 , . . . , yn ∈ K mit xi ̸= x j für alle i ̸= j. Zeigen
Sie, dass es genau ein Polynom f ∈ K[t] vom Grad 6 n gibt, so dass f (xi ) = yi für
i = 0, . . . , n.
Hinweis: Konstruieren Sie zuerst Polynome gk ∈ K[t] vom Grad 6 n mit
{
1 für i = k ,
gk (xi ) = 0 für i ̸= k .

7. Seien f , g ∈ C[t] Polynome mit µ ( f , λ ) 6 µ (g, λ ) für alle λ ∈ C. Zeigen Sie, dass
dann f ein Teiler von g ist. Gilt diese Aussage auch in R[t]?
8. Sei K ein Körper und e: K[t] → Abb (K, K), f 7→ fe, die Abbildung aus
1.3.5, die jedem Polynom f die zugehörige Abbildung fe zuordnet. Zeigen Sie, dass
e surjektiv, aber nicht injektiv ist, falls der Körper K endlich ist.
9. Analog zu 1.3.5 definiert man ein Polynom mit Koeffizienten über einem Körper K in
n Unbestimmten t1 , . . . ,tn als einen formalen Ausdruck der Gestalt
f (t1 , . . . ,tn ) = ∑ ai1 ...in · t1i1 · . . . · tnin ,
06i1 ,...,in 6k
wobei k ∈ N und ai1 ...in ∈ K. K[t1 , . . . ,tn ] bezeichne die Menge all solcher Polynome. Wie
für Polynome in einer Unbestimmten kann auch in K[t1 , . . . ,tn ] eine Addition und eine
Multiplikation erklärt werden. Sind f , g ∈ K[t1 , . . . ,tn ], so erfolgt die Addition von f und
g koeffizientenweise und die Multiplikation wieder durch formales Ausmultiplizieren.
a) Finden Sie Formeln für die Addition und Multiplikation von Polynomen in
K[t1 , . . . ,tn ], und zeigen Sie, dass K[t1 , . . . ,tn ] auf diese Weise zu einem nullteiler-
freien, kommutativen Ring wird.
Ein Polynom h ∈ K[t1 , . . . ,tn ] r {0} heißt homogen (vom Grad d), falls
h= ∑ ai1 ...in · t1i1 · . . . · tnin .
i1 +...+in =d
b) Für ein homogenes Polynom h ∈ K[t1 , . . . ,tn ] vom Grad d gilt:
h(λ t1 , . . . , λ tn ) = λ d · h(t1 , . . . ,tn ) für alle λ ∈ K .
c) Ist K unendlich und f ∈ K[t1 , . . . ,tn ] r {0}, so folgt aus
f (λ t1 , . . . , λ tn ) = λ d · f (t1 , . . . ,tn ) für alle λ ∈ K ,
dass f homogen vom Grad d ist.
d) Ist h1 homogen von Grad d1 und h2 homogen vom Grad d2 , so ist h1 · h2 homogen
vom Grad d1 + d2 .
20 1 Grundbegriffe

10. Sei K ein Körper und K[t] der Polynomring in einer Unbestimmten.
a) Zeigen Sie, dass in der Menge K[t] × (K[t] r {0}) durch
(g, h) ∼ (g′ , h′ ) ⇔ gh′ = g′ h
eine Äquivalenzrelation gegeben ist.
K(t) sei die Menge der Äquivalenzklassen. Die zu (g, h) gehörige Äquivalenzklasse sei
g g g′
mit bezeichnet. Somit ist = ′ ⇔ gh′ = g′ h.
h h h
b) Zeigen Sie, dass in K(t) die Verknüpfungen
g g′ gh′ + hg′ g g′ gg′
+ := , · := ′ ,
h h′ hh′ h h′ hh
wohldefiniert sind (vgl. 1.2.7).
c) Zeigen Sie schließlich, dass K(t) mit diesen Verknüpfungen zu einem Körper wird.
Man nennt K(t) den Körper der rationalen Funktionen.
11. Was folgt aus der Vorzeichenregel von D ESCARTES für das Polynom t n + 1?
12. Man folgere die spezielle Vorzeichenregel aus der Vorzeichenregel von D ESCAR -
TES .

Ergänzungsaufgaben
E1. R sei ein kommutativer Ring mit Einselement. Zeigen Sie:
a) Die Menge R[t] der Polynome mit Koeffizienten aus R ist ein kommutativer Ring mit
Einselement.
b) Ist R nullteilerfrei, so folgt: Für beliebige f , g ∈ R[t] mit deg f = n und deg g = m gilt
deg f · g = n + m.
c) Zeigen Sie, dass die Aussage von Teil b) nicht gilt, falls R nicht nullteilerfrei ist, d.h.
finden Sie einen nicht nullteilerfreien Ring und Polynome f , g ∈ R[t] mit deg f = n,
deg g = m und deg f · g < n + m.
E2. R ̸= {0} sei ein Ring, in dem für alle r ∈ R die Gleichung r2 = r gilt. Zeigen Sie:
a) Es gilt char (R) = 2.
b) R ist kommutativ.
Definition. Ein Ring R heißt Integritätsring, wenn er außer der Null keine Nullteiler
besitzt, d.h. für alle r, s ∈ R mit r · s = 0 gilt r = 0 oder s = 0.
c) Wenn R ein Integritätsring ist, dann ist R der Körper mit zwei Elementen.
Einheitengruppe
E3. (R, +, ·) sei ein Ring. Ein Element a ∈ R heißt Einheit, wenn ein b ∈ R existiert mit
a · b = b · a = 1.
a) Zeigen Sie, dass
R× := {a ∈ R : a ist Einheit}
eine Gruppenstruktur bzgl. der Multiplikation in R bildet. Man bezeichnet (R× , ·) als
Einheitengruppe.
1.4 Vektorräume 21

b) Zeigen Sie, dass für einen kommutativen Ring R genau dann R× = Rr{0} gilt, wenn
R ein Körper ist.
Überlegen Sie sich, welche algebraische Strukturen R besitzt, wenn die Multiplikati-
on nicht kommutativ ist.

E4. Seien i die imaginäre Einheit und Z[i] := {a + i · b : a, b ∈ Z}.


a) Zeigen Sie, dass Z[i] bzgl. der aus C übertragenen Multiplikation ein Ring ist. Er
heißt der Ring der Gaußschen Zahlen.
b) Weisen Sie nach, dass die Abbildung
δ : Z[i] r {0} → N r {0} , a + ib 7→ a2 + b2 ,
der Norm multiplikativ ist, d.h. für z1 , z2 ∈ Z[i] r {0} gilt δ (z1 · z2 ) = δ (z1 ) · δ (z2 ).
c) Bestimmen Sie die Einheitengruppe von Z[i].

E5. Zeigen Sie, dass es keinen Ring mit fünf Elementen geben kann.

1.4 Vektorräume
1. Welche der folgenden Mengen sind Untervektorräume der angegebenen Vektorräu-
me?
{ }
a) (x1 , x2 , x3 ) ∈ R3 : x1 = x2 = 2x3 ⊂ R3 .
{ }
b) (x1 , x2 ) ∈ R2 : x12 + x24 = 0 ⊂ R2 .
{ }
c) (µ + λ , λ 2 ) ∈ R2 : µ , λ ∈ R ⊂ R2 .
d) { f ∈ Abb (R, R) : f (x) = f (−x) für alle x ∈ R} ⊂ Abb (R, R).
{ }
e) (x1 , x2 , x3 ) ∈ R3 : x1 > x2 ⊂ R3 .
f) {A ∈ M(m × n; R) : A ist in Zeilenstufenform } ⊂ M(m × n; R).
2. Seien V und W zwei K-Vektorräume. Zeigen Sie, dass das direkte Produkt V × W
durch die Verknüpfungen
(v, w) + (v′ , w′ ) := (v + v′ , w + w′ ), λ · (v, w) := (λ v, λ w) ,
ebenfalls zu einem K-Vektorraum wird.
3. Ist X eine nichtleere Menge, V ein K-Vektorraum und Abb (X,V ) die Menge aller
Abbildungen von X nach V , so ist auf Abb (X,V ) durch
( f + g)(x) := f (x) + g(x) , (λ · f )(x) := λ f (x) ,
eine Addition und eine skalare Multiplikation erklärt.
Zeigen Sie, dass Abb (X,V ) mit diesen Verknüpfungen zu einem K-Vektorraum wird.
4. Eine Abbildung f : R → R heißt 2π -periodisch, falls f (x) = f (x + 2π ) für alle x ∈ R.
a) Zeigen Sie, dass V = { f ∈ Abb (R, R) : f ist 2π -periodisch} ⊂ Abb (R, R) ein Un-
tervektorraum ist.
b) Zeigen Sie, dass W = span (cos nx, sin mx)n,m∈N ein Untervektorraum von V ist. (Man
nennt W den Vektorraum der trigonometrischen Polynome.)
22 1 Grundbegriffe

5. Seien { }

ℓ1 := (xi )i∈N : ∑ |xi | < ∞ ⊂ Abb (N, R) ,
i=0
{ }

ℓ2 := (xi )i∈N : ∑ |xi |2 < ∞ ⊂ Abb (N, R) ,
i=0
ℓ := {(xi )i∈N : (xi )i∈N konvergiert} ⊂ Abb (N, R) ,
ℓ∞ := {(xi )i∈N : (xi )i∈N beschränkt} ⊂ Abb (N, R) .
Zeigen Sie, dass ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ ⊂ Abb (N, R) eine aufsteigende Kette von Untervek-
torräumen ist.
6. Kann eine abzählbar unendliche Menge M eine R-Vektorraumstruktur besitzen?
7. Gibt es eine C-Vektorraumstruktur auf R, so dass die skalare Multiplikation
C × R → R eingeschränkt auf R × R die übliche Multiplikation reeller Zahlen ist?
8. Sind die folgenden Vektoren linear unabhängig?
√ √
a) 1, 2, 3 im Q-Vektorraum R.
b) (1, 2, 3), (4, 5, 6), (7, 8, 9) im R3 .
( 1 )
c) n+x n∈N
in Abb (R∗+ , R).
d) (cos nx, sin mx)n,m∈Nr{0} in Abb (R, R).

9. Für welche t ∈ R sind die folgenden Vektoren aus R3 linear abhängig?


(1, 3, 4) , (3,t, 11) , (−1, −4, 0) .
10. Stellen Sie den Vektor w jeweils als Linearkombination der Vektoren v1 , v2 , v3 dar:
a) w = (6, 2, 1), v1 = (1, 0, 1), v2 = (7, 3, 1), v3 = (2, 5, 8).
b) w = (2, 1, 1), v1 = (1, 5, 1), v2 = (0, 9, 1), v3 = (3, −3, 1).

Ergänzungsaufgabe
E1. V sei ein Vektorraum über den Körper K und V1 ,V2 ,V3 seien Untervektorräume von
V . Zeigen Sie:
a) (V1 ∩V3 ) + (V2 ∩V3 ) ⊂ (V1 +V2 ) ∩V3 .
b) Falls V1 ⊂ V3 gilt, so folgt
(V1 ∩V3 ) + (V2 ∩V3 ) = (V1 +V2 ) ∩V3 .
c) Suchen Sie ein Beispiel mit V1 " V3 , V2 " V3 und
(V1 ∩V3 ) + (V2 ∩V3 ) $ (V1 +V2 ) ∩V3 .
1.5 Basis und Dimension 23

1.5 Basis und Dimension


1. Gegeben seien im R5 die Vektoren v1 = (4, 1, 1, 0, −2), v2 = (0, 1, 4, −1, 2),
v3 = (4, 3, 9, −2, 2), v4 = (1, 1, 1, 1, 1), v5 = (0, −2, −8, 2, −4).
a) Bestimmen Sie eine Basis von V = span (v1 , . . . , v5 ).
b) Wählen Sie alle möglichen Basen von V aus den Vektoren v1 , . . . , v5 aus, und kombi-
nieren Sie jeweils v1 , . . . , v5 daraus linear.
2. Geben Sie für folgende Vektorräume jeweils eine Basis an:
{ }
a) (x1 , x2 , x3 ) ∈ R3 : x1 = x3 ,
{ }
b) (x1 , x2 , x3 , x4 ) ∈ R4 : x1 + 3x2 + 2x4 = 0, 2x1 + x2 + x3 = 0 ,
( )
c) span t 2 , t 2 + t, t 2 + 1, t 2 + t + 1, t 7 + t 5 ⊂ R[t],
d) { f ∈ Abb (R, R) : f (x) = 0 bis auf endlich viele x ∈ R}.

3. Für d ∈ N sei
K[t1 , . . . ,tn ](d) := {F ∈ K[t1 , . . . ,tn ] : F ist homogen vom Grad d oder F = 0}
(vgl. Aufgabe 9 zu 1.3). Beweisen Sie, dass K[t1 , . . . ,tn ](d) ⊂ K[t1 , . . . ,tn ] ein Untervek-
torraum ist und bestimmen Sie dimK[t1 , . . . ,tn ](d) .
4. Zeigen Sie, dass C endlich erzeugt über R ist, aber R nicht endlich erzeugt über Q.
5. Ist (vi )i∈I eine Basis des Vektorraumes V und (w j ) j∈J eine Basis des Vektorraumes
W , so ist ((vi , 0))i∈I ∪ ((0, w j )) j∈J eine Basis von V ×W (vgl. Aufgabe 2 zu 1.4). Insbe-
sondere gilt
dimV ×W = dimV + dimW ,
falls dimV , dimW < ∞.
6. Sei V ein reeller Vektorraum und a, b, c, d, e ∈ V . Zeigen Sie, dass die folgenden Vek-
toren linear abhängig sind:
v1 = a + b + c , v2 = 2a + 2b + 2c − d , v3 = a − b − e ,
v4 = 5a + 6b − c + d + e , v5 = a − c + 3e , v6 = a + b + d + e .
7. Für einen endlichdimensionalen Vektorraum V definieren wir
h(V ) := sup {n ∈ N : es gibt eine Kette V0 ⊂ V1 ⊂ . . . ⊂ Vn−1 ⊂ Vn
von Untervektorräumen Vi ⊂ V } .
Zeigen Sie h(V ) = dimV .
8. Sei R = C (R, R) der Ring der stetigen Funktionen und
W := { f ∈ R : es gibt ein ρ ∈ R mit f (x) = 0 für x > ρ } ⊂ R .
Für k ∈ N definieren wir die Funktion
{
0 für alle x > k ,
fk (x) := k − x für x 6 k .
a) W = span R ( fk )k∈N .
b) W ist über R nicht endlich erzeugt (aber R ist über R endlich erzeugt).
c) Ist die Familie ( fk )k∈N linear abhängig über R?
24 1 Grundbegriffe

9. Zeigen Sie Z = 2Z + 3Z und folgern daraus, dass es in Z unverkürzbare Erzeugenden-


systeme verschiedener Längen gibt.
10. Wie viele Elemente hat ein endlichdimensionaler Vektorraum über einem endlichen
Körper?
11.∗ a) Ist K ein Körper mit char K = p > 0, so enthält K einen zu Z/pZ isomorphen
Körper und kann somit als Z/pZ-Vektorraum aufgefasst werden.
b) Zeigen Sie: Ist K ein endlicher Körper mit char K = p, so hat K genau pn Elemente,
wobei n = dimZ/pZ K.
12. Zeigen Sie: Zeilenrang = Spaltenrang für Matrizen mit sehr kleiner Zeilenzahl (etwa
m = 1, 2) und beliebig großer Spaltenzahl n.
13. Folgern Sie aus Lemma 1.5.8, dass für eine Matrix A ∈ M(m × n; K)
a) Zeilenrang A 6 Spaltenrang A,
b) Zeilenrang A > Spaltenrang A,
und somit insgesamt Zeilenrang A = Spaltenrang A gilt.

1.6 Summen von Vektorräumen∗


1. Beweisen Sie, dass für einen Vektorraum V folgende Bedingungen äquivalent sind:
i) V = W1 ⊕ . . . ⊕Wk .
ii) Jedes v ∈ V ist eindeutig darstellbar als v = w1 + . . . + wk mit wi ∈ Wi .
iii) V = W1 + . . . + Wk , Wi ̸= {0} für alle i und von Null verschiedene Vektoren w1 ∈
W1 , . . . , wk ∈ Wk sind linear unabhängig.
Vorsicht! Die Voraussetzung Wi ̸= {0} ist wesentlich. Ist etwa W1 = {0}, so ist die
angegebene zweite Bedingung stets erfüllt!
k
iv) V = W1 + . . . +Wk und Wi ∩ ∑ W j = {0} für alle i ∈ {1, . . . , k}.
j=1
j̸=i
v) V = W1 + . . . +Wk und Wi ∩ (Wi+1 + . . . +Wk ) = {0} für alle i ∈ {1, . . . , k − 1}.
Zeigen Sie anhand von Gegenbeispielen, dass die obigen Bedingungen für k > 2 im
Allgemeinen nicht äquivalent sind zu W1 ∩ . . . ∩ Wk = {0} bzw. Wi ∩ W j = {0} für alle
i ̸= j.
2. Sind V und W Vektorräume, so gilt
V ×W = (V × {0}) ⊕ ({0} ×W ) .
1.6 Summen von Vektorräumen∗ 25

3. Eine Matrix A ∈ M(n × n; K) heißt symmetrisch, falls A = tA.


a) Zeigen Sie, dass die symmetrischen Matrizen einen Untervektorraum Sym(n; K) von
M(n × n; K) bilden. Geben Sie die Dimension und eine Basis von Sym(n; K) an.
Ist char K ̸= 2, so heißt A ∈ M(n × n; K) schiefsymmetrisch (oder alternierend), falls
tA = −A. Im Folgenden sei stets char K ̸= 2.
b) Zeigen Sie, dass die alternierenden Matrizen einen Untervektorraum Alt(n; K) von
M(n × n; K) bilden. Bestimmen Sie auch für Alt(n; K) die Dimension und eine Basis.
c) Für A ∈ M(n × n; K) sei As := 12 (A + tA) und Aa := 21 (A − tA). Zeigen Sie: As ist
symmetrisch, Aa ist alternierend, und es gilt A = As + Aa .
d) Es gilt: M(n × n; K) = Sym(n; K) ⊕ Alt(n; K).

Ergänzungsaufgabe
E1. a) Zeigen Sie, dass die Teilmengen
{ }
:= t (r, . . . , r) ∈ Rn : r ∈ R ⊂}Rn ,
U1 {
n
U2 := t
(r1 , . . . , rn ) ∈ Rn : ∑ ri = 0 ⊂ Rn ,
i=1
Untervektorräume von Rn sind.
b) Bestimmen Sie dimU1 , dimU2 , dim(U1 ∩U2 ) und dim(U1 +U2 ).
Kapitel 2
Lineare Abbildungen
In diesem Kapitel wird das Fundament für einen wesentlichen Teil der linearen Algebra
gelegt. Der Zusammenhang zwischen linearen Abbildungen und Matrizen wird unter
verschiedenen Gesichtspunkten beleuchtet. Um sich diesen Stoff sicher einzuprägen,
sind viele Übungsaufgaben nötig, in denen oft argumentiert, manchmal jedoch auch nur
gerechnet wird. Damit die Rechenpraxis auf keinen Fall zu kurz kommt, haben wir noch
Aufgaben ergänzt.

2.1 Beispiele und Definitionen


1. Sei X eine Menge und V der R-Vektorraum aller Funktionen f : X → R. Beweisen
Sie: Ist φ : X → X eine beliebige Abbildung, so ist die Abbildung
Fφ : V → V , f 7→ f ◦ φ R-linear.
2. Untersuchen Sie die folgenden Abbildungen auf Linearität:
a) R2 → R2 , (x, y) 7→ (3x√+ 2y, x) , b) R → R , x 7→ ax + b ,
c) Q2 → R , (x, y) 7→ x + 2y (über Q) , d) C → C , z 7→ z̄ ,
e) Abb (R, R) → R , f 7→ f (1) , f) C → C , z 7→ z̄ (über R) .
3. Für einen Endomorphismus F : V → V ist die Menge Fix F der Fixpunkte von F
definiert durch Fix F := {v ∈ V : F(v) = v}.
a) Zeigen Sie, dass Fix F ⊂ V ein Untervektorraum ist.
b) Sei der Endomorphismus F gegeben durch
( )
1 2 2
i) F : R → R , x 7→ 0
3 3 1 0 · x,
3 0 1
ii) F : R[t] → R[t], P 7→ P′ ,
iii) F : D(R, R) → Abb(R, R), f 7→ f ′ .
Bestimmen Sie jeweils eine Basis von Fix F.

4. Zeigen Sie, dass die Menge Aut(V ) der Automorphismen eines Vektorraums V mit
der Komposition von Abbildungen als Verknüpfung eine Gruppe ist.
5. Sei F : V → V ein Endomorphismus des Vektorraums V und v ∈ V , so dass für eine
natürliche Zahl n gilt: F n (v) ̸= 0 und F n+1 (v) = 0 .
Beweisen Sie, dass dann v, F(v), . . . , F n (v) linear unabhängig sind.
6. Ist F : V → W ein Isomorphismus und V = U1 ⊕U2 , so ist W = F(U1 ) ⊕ F(U2 ).

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_3
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ 27

2.2 Bild, Fasern und Kern, Quotientenvektorräume∗


1. Sei F : Rn → Rm gegeben durch die folgenden Matrizen:
 1 1 0 1 0 
( )
1 2 3  0 1 1 0 0 .
4 5 6 , 1 1 0 0 1
0 1 1 0 0
Bestimmen Sie jeweils Basen von Ker F und Im F.
2. Sei I ⊂ R ein Intervall und
d : D(I; R) → D(I; R) , f 7→ f ′ .
Zeigen Sie, dass d eine R-lineare Abbildung ist, und geben Sie eine Basis von Ker d an.
Wie sieht Ker d aus im Fall, dass I disjunkte Vereinigung von Intervallen ist?
3. Sei V ein endlichdimensionaler Vektorraum und F : V → V ein Endomorphismus. Es
sei definiert: W0 := V und Wi+1 := F(Wi ) für i ∈ N. Dann gilt: Es gibt ein m ∈ N mit
Wm+i = Wm für alle i ∈ N.
4. Sei F : V → V linear mit F 2 = F. Zeigen Sie, dass es Untervektorräume U,W von V
gibt mit V = U ⊕W und F(W ) = 0, F(u) = u für alle u ∈ U.
5. Sei F : R3 → R2 gegeben durch die Matrix
( )
2 1 3
−4 −2 −6 .

a) Bestimmen Sie Basen A = (u, v1 , v2 ) des R3 und B = (w, w′ ) des R2 , so dass


Ker F = span (v1 , v2 ), Im F = span (w) und F(u) = w .
b) Geben Sie für x ∈ Im F eine Parametrisierung der Faser F −1 (x) an und zeigen Sie,
dass jede nichtleere Faser F −1 (x) genau einen Schnittpunkt mit U = span (u) hat
(vgl. 2.2.5).

6. Beweisen Sie das Lemma aus 1.5.8 noch einmal, aber benutzen Sie nun, dass die
Projektion π : W → K m−1 linear und injektiv ist.
7. Sei F : V → W linear und U ⊂ W ein Untervektorraum. Zeigen Sie, dass dann
dimF −1 (U) = dim(U ∩ Im F) + dimKer F .

8. Geben Sie einen neuen Beweis von Teil a) der Bemerkung aus 2.2.3 unter Benutzung
der Äquivalenzrelation ∼W in V .
9. Zeigen Sie mit Hilfe der universellen Eigenschaft des Quotientenvektorraumes, dass
für Vektorräume V , W sowie einen Untervektorraum U ⊂ V die lineare Abbildung
{F ∈ Hom (V,W ) : F|U = 0} → Hom (V /U,W ) mit F 7→ F̄
(vgl. Satz 2.2.7) ein Isomorphismus von Vektorräumen ist.
28 2 Lineare Abbildungen

Ergänzungsaufgabe
E1. Berechnen Sie mithilfe eines CAS Akn mit k ∈ N für
 
0 1 0
 .. 
An =  . ··· ··· 
 0 · · · 0 1  ∈ M(n, R).
n ··· ···
1 1
n
Formulieren Sie eine Vermutung für lim An , und beweisen Sie sie.
n→∞

2.3 Lineare Gleichungssysteme


1. Ein Nahrungsmittel enthält Schadstoffe S1 , . . . , S5 , die bei der Produktion und Lage-
rung als Bestandteile von Pflanzenschutzmitteln auftreten. Auf den einzelnen Stationen
werden die folgenden Pflanzenschutzmittel benutzt:
Station Mittel
1. Landwirt A
2. Rohproduktlagerung B
3. Veredelungsbetrieb C
4. Grossist und Transport D
5. Einzelhändler E
Die folgende Tabelle gibt die prozentuale Zusammensetzung der Mittel A,. . ., E wieder:
S1 S2 S3 S4 S5
A 0.2 0.5 0 0.3 0
B 0.1 0.6 0.3 0 0
C 0.1 0.2 0.2 0.3 0.2
D 0 0 0.1 0.4 0.5
E 0 0.1 0.3 0.3 0.3
Für das fertige Produkt ergibt die Nahrungmittelanalyse die folgenden Werte (in Ge-
wichtseinheiten):
S1 S2 S3 S4 S5
0.75 2.25 0.65 1.60 0.75
Ermitteln Sie, wieviel (in Gewichtseinheiten) die einzelnen Stationen zur Schadstoffbe-
lastung beitragen.
2. Es seien Metall-Legierungen M1 , M2 und M3 gegeben, die alle Kupfer, Silber und
Gold enthalten, und zwar in folgenden Prozentsätzen:
2.3 Lineare Gleichungssysteme 29

Kupfer Silber Gold


M1 20 60 20
M2 70 10 20
M3 50 50 0
Kann man diese Legierungen so mischen, dass eine Legierung entsteht, die 40% Kupfer,
50% Silber und 10% Gold enthält?
3. Zeigen Sie: Ist die Matrix A ∈ M(m × n; K) in Zeilenstufenform und r der Rang von
A, so ist (e1 , . . . , er ) eine Basis von Im A ⊂ K m .
4. Bestimmen Sie für das folgende Gleichungssystem in Zeilenstufenform mit beliebiger
rechter Seite Matrizen C und D wie in 2.3.4, so dass die Spalten von C ein Fundamen-
talsystem bilden und D · b für jedes b ∈ R5 eine spezielle Lösung ist.
 
0 1 −1 2 0 3 0 b1
 0 0 2 −1 2 0 1 b2 
 
 0 0 0 −1 4 0 −3 b3 
 0 0 −7 
 0 0 0 1 b 4 
 0 0 0 0 0 0 −4 b5 
0 0 0 0 0 0 0 0
5. Gegeben seien die Matrizen
   
3 5 7 3 2 6 3
A =  4 6 8 , B= 2 1 3 2 .
1 3 4 2 3 1 4

a) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutig lösbar


sind:
Ax = t (2, 4, 9) , Bx = t (4, 1, 7) .
b) Untersuchen Sie die Gleichungssysteme Ax = b und Bx = b für beliebige b ∈ R3
darauf, ob sie universell lösbar sind.

6. Sei der Untervektorraum W ⊂ Rn gegeben durch m lineare Gleichungen φ1 , . . . , φm ,


d.h.
W = {x ∈ Rn : φ1 (x) = . . . = φm (x) = 0} .
Zeigen Sie, dass dann W bereits durch eine einzige (nicht notwendig lineare) Gleichung
beschrieben werden kann. Genauer gilt: Es existiert ein Polynom f ∈ R[t1 , . . . ,tn ] mit
W = {(x1 , . . . , xn ) ∈ Rn : f (x1 , . . . , xn ) = 0} .
Zeigen Sie, dass diese Aussage auch gilt, falls man R durch einen endlichen Körper K
ersetzt.
7. Finden Sie neue (kürzere) Beweise für Satz 0.2.4 und Aufgabe 2a) zu 0.3.
8. Zeigen Sie, dass eine Teilmenge L des R3 eine Gerade ist (d. h. es existieren
v, w ∈ R3 , w ̸= 0, mit L = v + Rw) genau dann, wenn es eine Matrix A ∈ M(2 × 3; R)
30 2 Lineare Abbildungen

mit rang A = 2 und ein b ∈ R2 gibt, so dass L = {x ∈ R3 : Ax = b}. Was bedeutet das
geometrisch?

2.4 Lineare Abbildungen und Matrizen


1. Gibt es eine lineare Abbildung F : R2 → R2 mit
F(2, 0) = (0, 1), F(1, 1) = (5, 2), F(1, 2) = (2, 3) ?
2. Sei B = (sin, cos, sin · cos, sin2 , cos2 ) und V = span B ⊂ Abb (R, R). Betrachten Sie
den Endomorphismus F : V → V, f 7→ f ′ , wobei f ′ die erste Ableitung von f bezeich-
net.
a) Zeigen Sie, dass B eine Basis von V ist.
b) Bestimmen Sie die Matrix MB (F).
c) Bestimmen Sie Basen von Ker F und Im F.

3. Für n ∈ N sei Vn = span (1, . . . ,t n ) ⊂ R[t] mit der Basis Bn = (1, . . . ,t n ) und
Dn : Vn → Vn−1 , f 7→ f ′
der Ableitungshomomorphismus.
Bn
a) Bestimmen Sie die Matrix MB n−1
(Dn ).
b) Zeigen Sie, dass es eine lineare Abbildung In : Vn−1 → Vn gibt mit Dn ◦ In = id,
B
und bestimmen Sie MBnn−1 (In ).

4. Sei V = { f ∈ R[t] : deg f 6 3} mit der Basis B = (1,t,t 2 ,t 3 ). Wir betrachten die
linearen Abbildungen
∫1
F : V → R, f 7→ f (t) dt und G : V → R3 , f 7→ ( f (−1), f (0), f (1)) .
−1

a) Es seien K und K ′ die kanonischen Basen von R und R3 . Bestimmen Sie die Ma-
trizen B B
MK (F) und MK ′ (G) .

b) Zeigen Sie: Ker G ⊂ Ker F.


c) Es gibt eine lineare Abbildung H : R3 → R mit H ◦ G = F.

5. Seien V und W endlichdimensionale Vektorräume mit V = V1 ⊕ V2 , W = W1 ⊕ W2


sowie F : V → W linear mit F(Vi ) ⊂ Wi für i = 1, 2. Zeigen Sie, dass es Basen A von V
und B von W gibt mit ( )
A A 0
MB (F) = ,
0 B
wobei A ∈ M(dimW1 × dimV1 ; K), B ∈ M(dimW2 × dimV2 ; K).
6. Zeigen Sie ohne Verwendung von Matrizen, dass die in 2.4.2 definierten Abbildungen
Fi j : V → W eine Basis von Hom(V,W ) bilden.
2.5 Multiplikation von Matrizen 31

7. Sei  
−2 3 2 3
A =  −3 5 0 1 
−1 2 −2 −2
und F : R4 → R3 die durch F(x) = Ax definierte lineare Abbildung. Bestimmen Sie
Basen A von R4 und B von R3 mit  
1 0 0 0
A
MB (F) =  0 1 0 0 .
0 0 0 0

8. Sei V ein endlichdimensionaler Vektorraum und F : V → V linear mit F 2 = F. Zeigen


Sie, dass es eine Basis B von V gibt mit
( )
Er 0
MB (F) = .
0 0
Hinweis: Aufgabe 5 und Aufgabe 4 zu 2.2.
9. Zeigen Sie: Ist F : V → V ein Endomorphismus des endlichdimensionalen Vektor-
raums V mit dim Fix F = r (vgl. Aufgabe 3 zu 2.1), so existiert eine Basis B von V
mit ( )
Er ∗
MB (F) = .
0 ∗
Ergänzungsaufgabe
E1. Gegeben sei der Vektorraum R[t]3 der Polynome vom Grad kleiner oder gleich 3
über R. Ferner sei dtd : R[t]3 → R[t]3 die formelle Ableitung.
a) Notieren Sie eine( Standard“-Basis B des Vektorraums. Bestimmen Sie die Darstel-
”)
lungsmatrix MB dtd .
( )
b) Bestimmen Sie die Darstellungsmatrix MB̃ dtd in Bezug auf die (geordnete) Basis
B̃ = (t 3 , 3t 2 , 6t, 6).
c) Ermitteln Sie die Transformationsmatrix T mit T MB̃ T −1 = MB .

2.5 Multiplikation von Matrizen


1. Gegeben seien die Matrizen
     
1
1 −1 2 −1 0 1 0
A :=  0 3 5  , B :=  0 1 0 −1  , C :=  0 
 8 ,
1 8 −7 1 0 −1 0
  −7
( ) 1 4
D := −1 2 0 8 , E :=  0 5 .
6 8
Berechnen Sie alle möglichen Produkte.
32 2 Lineare Abbildungen

2. In dieser Aufgabe betrachten wir Eigenschaften dünn besetzter“ Matrizen, in denen



viele Einträge null sind.
a) Sei n ∈ N r {0} und I = {1, . . . , n}. Wir betrachten die Menge I × I ⊂ N × N.
Finden Sie für k ∈ N Gleichungen für die Gerade“ L in I × I durch (1, k) und

(2, k + 1) sowie für die Gerade L′ durch (k, 1) und (k + 1, 2). Finden Sie weiter Un-
gleichungen für den Halbraum H in I × I, der oberhalb von L liegt und den Halbraum
H ′ , der unterhalb von L′ liegt.

b) Formulieren und beweisen Sie folgende Aussagen:


     
@ @ 0 @ @ 0
 @ ∗@   @ 0   @ 
  ·    
 0@ @   @ ∗@  = @ ∗ @ 
@ @ @ @
@ 0 @ @ 0 @

     
@ ∗ @ @∗
 @   @ ∗   @ 
@
 @  ·   =  
 0   0@   0 
@
@

c) Eine Matrix A = (ai j ) ∈ M(n × n; K) heißt echte obere Dreiecksmatrix, falls ai j = 0


für i > j. Zeigen Sie, dass eine echte obere Dreiecksmatrix A nilpotent ist, d.h. es
existiert ein m ∈ N mit Am = 0.

3. Sind die folgenden Teilmengen Unterringe?


a) {(ai j ) ∈ M(n × n; K) : ai j = 0 für i > j} ⊂ M(n × n; K)
b) {(ai j ) ∈ M(n × n; K) : ai j = 0 für i > j + k oder j > i + k} ⊂ M(n × n; K), wobei k ∈ N
( )
a b
c) { ∈ M(2 × 2; R) : a ∈ Q, b, c ∈ R} ⊂ M(2 × 2; R)
0 c
( )
0 a
d) { ∈ M(2 × 2; K) : a, b ∈ K} ⊂ M(2 × 2; K)
0 b
e) {(ai j ) ∈ M(n × n; K) : ai j = 0 für i ̸= j oder i > k} ⊂ M(n × n; K), wobei k ∈ N.
2.5 Multiplikation von Matrizen 33

4. Sei K ein Körper und n ∈ N r {0}.


a) Für λ ∈ K gilt: (λ En )B = B(λ En ) für alle B ∈ M(n × n; K).
b) Zeigen Sie: Ist A ∈ M(n × n; K) mit AB = BA für alle B ∈ M(n × n; K), so existiert
ein λ ∈ K mit A = λ En .
{( ) }
a −b
5. Sei C = : a, b ∈ R ⊂ M(2 × 2; R).
b a
a) Zeigen Sie, dass C ein Körper ist.
b) In C ist die Gleichung X 2 + 1 = 0 lösbar.
c) C ist als Körper isomorph zu C.

6. Zeigen Sie, dass für eine Matrix B ∈ M(n × k; R) die Abbildung


Φ : M(m × n; R) → M(m × k; R) , A 7→ A · B ,
stetig ist.
7. Zeigen Sie, dass die Abschätzung
rangA + rangB − n 6 rang(AB) 6 min{rangA, rangB}
aus 2.5.5 für den Rang der Produktmatrix in beide Richtungen scharf ist, d. h. finden Sie
Beispiele für
rangA + rangB − n = rang(AB) und rang(AB) = min{rangA, rangB} .

8. Wir wollen eine Methode angeben, um die Inverse einer Matrix auszurechnen:
Sei dazu A ∈ M(n × n; K) invertierbar, d. h. rang A = n. Zeigen Sie: Ist
 
x1i
i
x =  .. 
.
xni
die Lösung des Gleichungssystems Ax = ei , so ist
 
x11 . . . x1n
−1
A =  .
.
. . .
.
.
xn1 . . . xnn
Berechnen Sie auf diese Weise die inverse Matrix von
 
1 1 2 4
 1 3 4 −2 
A=
6 
.
0 1 3
1 3 5 3
9. Für eine differenzierbare Abbildung
f : Rn → Rm , x 7→ ( f1 (x), . . . , fm (x)) ,
ist die Jacobi-Matrix von f im Punkt x definiert durch
( )
∂ fi
Jacx f := (x) .
∂xj
34 2 Lineare Abbildungen

Ist m = 1 und f zweimal stetig partiell differenzierbar, so versteht man unter der Hesse-
Matrix von f im Punkt x die Matrix
( 2 )
∂ f
Hessx f := (x) .
∂ xi ∂ x j

a) Berechnen Sie die Jacobi-Matrix einer linearen Abbildung F : Rn → Rm , x 7→ Ax,


wobei A ∈ M(m × n; R).
b) Sei n
P : Rn → R , (x1 , . . . , xn ) 7→ ∑ ai j xi x j + ∑ bi xi ,
i6 j i=1
wobei ai j , bi ∈ R. Berechnen Sie die Jacobi-Matrix und die Hesse-Matrix von P.
Ergänzungsaufgaben
E1. Bestimmen Sie für die Matrix
 
0 1 ··· 1
 . . . . .. 
 . . . 
M=  ∈ M(n × n; K)
 ..
. 1 
0 0
mit char K = 0 eine Formel zur rekursiven Berechnung der Potenzen M k , und geben mit
dieser Formel die Potenzen M 2 und M 3 an.
E2. A, B ∈ M(n × n, K) seien symmetrische Matrizen (vgl. Aufgabe 3 zu 1.6). Zeigen
Sie, dass A · B genau dann symmetrisch ist, wenn A · B = B · A gilt.
E3. Zur Übung der Multiplikation von Matrizen empfehlen wir, die Matrizen aus den
Ergänzungsaufgaben zu 2.7 miteinander zu multiplizieren, sofern dies möglich ist.
E4. Es seien A, B ∈ M(n, R) mit A · (A · B − B · A) = (A · B − B · A) · A. Zeigen Sie, dass
k · Ak−1 (A · B − B · A) = Ak · B − B · Ak gilt.

2.6 Koordinatentransformationen
1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A , B und C . Bewei-
sen Sie die Kürzungsregel “
” TCA = TCB · TBA .
2. Im R3 seien die Basen
A = ((1, −1, 2), (2, 3, 7), (2, 3, 6)) und B = ((1, 2, 2), (−1, 3, 3), (−2, 7, 6))
gegeben.
a) Berechnen Sie die Transformationsmatrix TBA .
b) Bestimmen Sie die Koordinaten des Vektors
v = 2 · (1, −1, 2) + 9 · (2, 3, 7) − 8 · (2, 3, 6)
bezüglich der Basis B.
2.7 Elementarmatrizen und Matrizenumformungen 35

3. V sei ein R-Vektorraum mit Basis A = (v1 , . . . , v4 ), W sei ein R-Vektorraum mit Basis
B = (w1 , . . . , w5 ). F : V → W sei die lineare Abbildung, die gegeben ist durch
 
3 1 −2 2
 −2 −2 7 −3 
A  
MB (F) =  4 0 3 1 .
 1 3 12 4 
0 4 −17 5
Schließlich seien A ′ = (v′1 , . . . , v′4 ) mit v′1 = v1 + v2 , v′2 = v2 + v3 , v′3 = v3 + v4 ,
v′4 = v4 und B ′ = (w′1 , . . . , w′5 ) mit w′1 = w1 , w′2 = w1 + w2 , w′3 = −w1 + w3 ,
w′4 = w1 + w4 , w′5 = w1 + w5 .
a) Zeigen Sie, dass A ′ eine Basis von V und B ′ eine Basis von W ist.
b) Berechnen Sie MB A ′ (F), M A (F) und M A ′ (F).
B′ B′
c) Bestimmen Sie F −1 (span (w1 , w2 , w3 )).

4. Zeigen Sie, dass durch


A ∼ B ⇔ A und B sind äquivalent
(vgl. 2.6.7) tatsächlich eine Äquivalenzrelation auf der Menge M(m × n; K) gegeben ist
und durch
A ∼ B ⇔ A und B sind ähnlich
(vgl. 2.6.7) eine Äquivalenzrelation auf M(m × m; K) erklärt ist.
5. Zeigen Sie, dass für A ∈ M(n × n; R) gilt: rang A = rang (A · t A). Gilt dies auch, falls
A ∈ M(n × n; C)?

2.7 Elementarmatrizen und Matrizenumformungen


1. Stellen Sie die folgende Matrix A als Produkt von Elementarmatrizen dar:
 
1 1 1
A= 1 2 2 .
1 2 3

2. Sind die folgenden Matrizen invertierbar? Wenn ja, dann geben die inverse Matrix an.
   
0 0 0 1 6 3 4 5
 0 0 1 0   1 2 2 1 
 0 1 0 0  ∈ M(4 × 4; R) ,  2 4 3 2  ∈ M(4 × 4; R) ,
1 0 0 0  3 3 4 2
1 2 0 1 2 0
 1 1 1  ∈ M(3 × 3; R) ,  1 1 1  ∈ M(3 × 3; Z/3Z) .
2 0 1 2 0 1
36 2 Lineare Abbildungen

3. Zeigen Sie:
( )
a b
A= ∈ M(2 × 2; K) ist invertierbar ⇔ ad − bc ̸= 0 .
c d
Berechnen Sie in diesem Fall die Inverse von A.
4. Modifizieren Sie das Rechenverfahren aus 2.7.6 so, dass man statt S die inverse Matrix
S−1 erhält (benutzen Sie dabei die Inversen der Elementarmatrizen aus 2.7.2).
5. Finden Sie für die Gleichungssysteme Ax = b aus 0.3.5 sowie aus Aufgabe 2 in 0.4
e = SA in Zeilenstufenform ist, und berechnen Sie e
jeweils eine Matrix S, so dass A b = Sb.
6. Beweisen Sie:
a) Für A ∈ M(n × n; K) und m ∈ N gilt:
m−1 m−1
En − Am = (En − A)( ∑ Ai ) = ( ∑ Ai )(En − A) .
i=0 i=0

(Dabei sei A0 := En .)
b) Ist A ∈ M(n × n; K) eine Matrix, für die ein m ∈ N existiert mit Am = 0, so ist En − A
invertierbar. Wie sieht die inverse Matrix aus?

Ergänzungsaufgaben
E1. Die folgenden Matrizen sind über R bzw. C invertierbar und bieten daher die Mög-
lichkeit, mehr Routine im Errechnen der inversen 
Matrix zu erlangen.
 Viel Erfolg dabei!
    1 1 1 0
1 2 3 −2 3 1
1 1 0 1
A =  2 3 4 ; B =  1 1 2 ; C = 
1 0 1 1
;
1 1 0 5 2 −1
0 1 1 1
     
1 −2 3 4 5 4 −6 1
7 8 9
 −5 6 7 8  −4 8 6 1 
D= ; F =  4 5 6 ;
−9 10 11 12 
; E =
0 −3 7 7 
−1 2 3
13 −14 15 16 9 −3 0 5
     
1 1 1 2 0 1 1 1 1 1 1 1
1 1 2 1 2 1 2 2  2 4 8 16 
G=
1 2 1 1
; H =
3 3 2 3
; I=
3 9 27 81 
;
2 1 1 1 4 4 4 3 4 16 64 256
 
1 5 −9 4 −7  
 0 1 −6 7 1  1 2 + i −3i
 
J =  0 0 1 −3 9  ; K =  4i 5 1−i ;
0 0 0 1 8 2 − 3i 2i 5
0 0 0 0 1
 
2i −3 + i 4 − 2i ( )
2 − i 4 − 7i
L =  −9 8 − 3i 4i  ; M = ;
10 + 3i 12 − i
1 2 + i 3 − 2i
2.7 Elementarmatrizen und Matrizenumformungen 37

   
7 + 2i 1 − i 2 + 3i −3 − 3i
1 2 4
 0 −2 4 − i 10 − 2i 
N= O =  1+i 2+i 3+i .
1 + 7i 
;
0 0 4i
1−i 2−i 3−i
0 0 0 1
E2.
a) Zeigen Sie, dass die Multiplikation
  ( )
a11 · · · a1n m m
(x1 , . . . , xn ) ·  ... ..  :=
. ∑ i1 i ∑ in i
a x , . . . , a x
am1 · · · amn i=1 i=1

wohldefiniert ist.
b) Führen Sie die oben definierte Multiplikation für die Matrizen aus E1 mit den jeweils
geeigneten Vektoren aus der folgenden Liste durch:
(1, 3, 2), (1, i, −i), ( 13 , 12 , 61 ), (1, 2, 3, 4), (i, i2 , i3 , i4 ),
( ) ( )
− 12 , − 31 , − 14 , − 51 , 1 1 2 1 3 1 4 1 5
2,(2) ,(2) ,(2) ,(2) , (1, 2, 3, 5, 7), (1, 0), (0, 1) .
c) Leiten Sie aus der Vektormultiplikation von Teil a) für den Fall m = n eine Matrizen-
multiplikation und damit eine Verknüpfung von linearen Abbildungen her.
Diese Art der Multiplikation von Vektoren und Matrizen spielt auch in der Stochastik
eine Rolle, vgl. [Be]. Es ist zu beachten, dass in diesen Matrizen die Wahrscheinlich-
keiten stehen und ∑nj=1 ai j = 1 ∀i sowie ∑ni=1 xi = 1 gilt.

Polynome
p(t) = ak t k + ak−1t k−1 + . . . + a1t + a0 lassen sich auch als Abbildungen von
End(V ) → End(V ) eines Vektorraums V auffassen. Damit lassen sie sich auch als Ab-
bildungen M(n, K) → M(n, K) betrachten. Die Skalarmultiplikation und die Addition
von Matrizen finden hierbei wie üblich statt, als würde man die Matrizen als Vektoren
2
des Rn auffassen und jedes Element der Matrix mit dem Skalar multiplizieren. Nach
Korollar 2.5.4 in [Fi1] handelt es sich bei M(n × n, K) um einen Ring. Damit definieren
wir die Abbildung
p : M(n × n, K) → M(n × n, K),
A 7→ p(A) = ak · Ak + ak−1 · Ak−1 + . . . + a1 · A + a0 · En .

E3. Berechnen Sie p(A) für


( )
1 2
a) p(t) = x2 − 2 und A = ,
3 4
( )
−1 5
b) p(t) = 3t 2 − 5t − 1 und A = ,
3 −2
 
1 −2 1
c) p(t) = 3t 2 + 5t und A =  4 5 1 .
0 1 0
38 2 Lineare Abbildungen

E4. V sei der Untervektorraum der differenzierbaren Funktionen D(R, R) mit


B = (sin, cos) als Basis. d : V → V mit f 7→ f ′ sei die lineare Abbildung der for-
mellen Ableitung. Zeigen Sie, dass d eine Nullstelle der Funktion p mit p(t) = t 2 + 1
ist, d.h. (p ◦ d)(g) = 0 für alle g ∈ V , wenn d 2 die zweite Ableitung und 1 die identische
Abbildung bezeichnen.
E5. F ∈ End (V ) sei ein Endomorphismus des R-Vektorraums V mit Basis B und
A = MB (F) die zugehörige Matrix. Ferner sei p ∈ R[t] beliebig. Dann gilt
MB (p(F)) = p(A).
E6. V sei ein Vektorraum der Dimension n und F ∈ End (V ). Zeigen Sie ohne den Satz
von Cayley-Hamilton, dass ein Polynom p existiert mit p(F) = 0.
E7. Gegeben seien die Matrizen
   
a1 0 a1 ∗
A1 :=  . ..  und A2 :=  . .. 
0 an 0 an
und ein beliebiges Polynom p ∈ K[t] eines Körpers K. Zeigen Sie:
   
p(a1 ) 0 p(a1 ) ~
p(A1 ) =  . ..  und p(A2 ) =  . .. ,
0 p(an ) 0 p(an )
wobei nicht unbedingt ∗ = ~ gilt.
E8. Gegeben sind die Matrizen
   
A1 0 A1 ∗
A :=  . ..  und B :=  . .. 
0 An 0 An
( )
[m]
mit quadratischen Matrizen Am = ai j ∈ M(k × k, K) über einen Körper K. Fer-
16i, j6k
ner sei p ∈ K[t]. Zeigen Sie:
 ( ) 
[1]
p(ai j ) 0
 
 .. 
a) p(A) =  . ,
 ( ) 
[n]
0 p(ai j )
 ( ) 
[1]
p(ai j ) ~
 
 .. 
b) p(B) =  . , wobei nicht unbedingt ∗ = ~ gilt.
 ( ) 
[n]
0 p(ai j )
Kapitel 3
Determinanten
Es gibt heute Taschenrechner und Algebraprogramme für den Computer, die viele der
Rechnungen in diesem und den folgenden Kapiteln leisten können. Wir möchten trotz-
dem für die altmodische Methode mit Hilfe von Bleistift, Papier und Hirn werben; nur
sie kann das Verständnis fördern. Auch wir haben die Lösungen der Aufgaben aus der
Linearen Algebra ohne technische Hilfsmittel ermittelt – unsere LeserInnen schaffen es
sicher genauso. Am Ende von Abschnitt 3.4 befinden sich ergänzende Aufgaben zur
Steigerung der Rechenfertigkeit.

3.1 Beispiele und Definitionen


1. Berechnen Sie die Determinanten
 von 
0 1 1 1 1  
 1 0 1 1 1  1 2 3
 
 1 1 0 1 1 ,  2 5 1 .
 1 1 1 0 1  2 7 9
1 1 1 1 0
2. Zeigen Sie:  
x 1 1
det  1 x 1  = (x − 1)2 (x + 2) ,
 2 1 1 x 
a +1 ab ac
det  ab 2
b +1 bc  = a2 + b2 + c2 + 1 .
ac bc 2
c +1
3. Berechnen Sie:  
sin α cos α a sin α b cos α ab
 − cos α sin α −a2 sin α b2 cos α a2 b2 
 
det  0 0 1 a2 b2  .
 0 0 0 a b 
0 0 0 −b a
4. Zeigen Sie, dass für eine Matrix A = (ai j ) ∈ M(n × n; K) gilt:
det(ai j ) = det((−1)i+ j · ai j ) .
5. Sei K ein Körper mit char K ̸= 2 und A ∈ M(n × n; K) alternierend (vgl. Aufgabe 3 zu
1.6). Zeigen Sie:
a) Ist n ungerade, so ist det A = 0.
(Hinweis: Benutzen Sie Satz 3.2.6)
b) Ist n gerade, so ist det A Quadrat eines Polynoms in den Einträgen von A (vgl. Auf-
gabe 8 zu 3.2).

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_4
40 3 Determinanten

6. Sind f = amt m + . . . + a0 , g = bnt n + . . . + b0 ∈ K[t] Polynome mit


deg f = m, deg g = n, so ist die Resultante von f und g definiert durch
  
a0 ··· ··· am 
 .. .. 
 . .  n Zeilen
  
 a0 ··· ··· am  
 
 b · · · · · · bn  
Res f ,g := det  0  
 
.
 
  
 . .. . ..  m Zeilen
  
   


b0 · · · · · · bn
Zeigen Sie die Äquivalenz der folgenden Aussagen:
i) Res f ,g = 0.
ii) f ,t f , . . . ,t n−1 f , g,tg, . . . ,t m−1 g sind linear abhängig.
iii) Es existieren p, q ∈ K[t], p, q ̸= 0, mit deg p 6 n − 1, deg q 6 m − 1 und p f = qg.
Mit etwas Teilbarkeitstheorie von Polynomen kann man zeigen, dass i) bis iii) äquivalent
sind zu
iv) f und g haben einen gemeinsamen nichtkonstanten Teiler h ∈ K[t].
Insbesondere ist also Res f ,g = 0, falls f und g eine gemeinsame Nullstelle haben, und
im Fall K = C gilt: Res f ,g = 0 ⇔ f und g haben eine gemeinsame Nullstelle.
Ergänzungsaufgaben
E1. Eine Nullstelle λ ∈ K eines Polynoms f ∈ K[t] r 0 heißt mehrfache Nullstelle, wenn
die Vielfachheit der Nullstelle (vgl. [Fi1], 1.3.8) größer als 1 ist.
Beweisen Sie die Äquivalenz der folgenden Aussagen:
i) f ∈ K[t] hat eine mehrfache Nullstelle.
ii) f und f ′ haben eine gemeinsame Nullstelle, wobei f ′ die formale Ableitung von f
ist.
Zeigen Sie ferner für den Fall K = C die Äquivalenz von i) und ii) zu:
iii) Die Diskriminante von f verschwindet (s. die Anmerkungen zur Lösung von Auf-
gabe 6).
Vergleichen Sie auch Ergänzungsaufgabe E1 zu Abschnitt 3.2.
E2. Es sei A = (ai j ) ∈ M(n; K). Zeigen Sie, dass det A ein Polynom in den Einträgen ai j
ist.
3.2 Existenz und Eindeutigkeit 41

3.2 Existenz und Eindeutigkeit


1. Stellen Sie die Permutation [ ]
1 2 3 4 5
σ=
5 4 3 2 1
als Produkt von Transpositionen dar.
2. Beweisen Sie mit Induktion nach n, dass für die Vandermonde-Determinante gilt:
 
1 x1 · · · x1n−1
 .. .. ..   = ∏ (x j − xi ) .
det  . . .
16i< j6n
1 xn · · · xn n−1

3. Geben Sie eine unendliche Teilmenge des Rn an, in der jeweils n verschiedene Punkte
linear unabhängig sind.
4. Zeigen Sie noch einmal
det(ai j ) = det((−1)i+ j · ai j ) ,
(vgl. Aufgabe 4 zu 3.1), aber benutzen Sie nun zum Beweis die Formel von L EIBNIZ.
5. In dieser Aufgabe soll der Aufwand zum Berechnen der Determinante mit Hilfe der
Leibniz-Formel bzw. des Gauß-Algorithmus verglichen werden.
a) Bestimmen Sie die Anzahl der Additionen und Multiplikationen, die nötig sind, wenn
man die Determinante von A = (ai j ) ∈ M(n × n; R)
i) mit der Leibniz-Formel,
ii) durch Umformung der Matrix in Zeilenstufenform mit dem Gauß-Algorithmus
und Aufmultiplizieren der Diagonalelemente berechnet.
b) Es stehe ein Computer zur Verfügung, der Addition und Multiplikation in 0.2 Mikro-
sekunden durchführen kann. Schätzen Sie ab, für welche Größe von Matrizen man
mit den Verfahren i) bzw. ii) in einer vorgegebenen Rechenzeit von höchstens 48
Stunden auf diesem Computer Determinanten berechnen kann.

6. Beweisen Sie die Regeln D4 bis D11 aus 3.1.3 mit Hilfe der Leibniz-Formel.
7. Welche der Eigenschaften D4 bis D11 gelten, falls man Determinanten von Matrizen
aus M(n × n; R) für einen Ring R betrachtet (vgl. 3.2.8)?
8. (Fortsetzung von Aufgabe 5 zu 3.1.)
Sei K ein Körper mit char K ̸= 2, n ∈ N r {0} gerade, also n = 2m für ein m ∈ N und
A ∈ M(n × n; K) schiefsymmetrisch. Definiert man
P(x11 , . . . , xnn ) = ∑ sign(σ ) · xσ (1)σ (2) · . . . · xσ (2m−1)σ (2m) ,
wobei über alle σ ∈ Sn mit σ (2i) > σ (2i − 1) für i = 1, . . . , m summiert wird, so gilt
1
det A = ( m! P(a11 , . . . , ann ))2 . Man nennt P ein Pfaffsches Polynom.
42 3 Determinanten

9. Seien v, w zwei verschiedene Punkte des K 2 und L ⊂ K 2 die Gerade durch v und w.
Dann gilt:  
1 v1 v2
L = {(x1 , x2 ) ∈ K : det
2  1 w 1 w 2  = 0} .
1 x1 x2

10.∗ Zeigen Sie, dass die Menge


SL(2; Z) := {A ∈ M(2 × 2; Z) : det A = 1}
eine Gruppe bzgl. der Multiplikation ist und erzeugt wird von den Matrizen
( ) ( )
1 1 0 1
A= , B= ,
0 1 −1 0
d.h. SL(2; Z) = erz (A, B) (vgl. Aufgabe 4 zu 1.2).
11. Gegeben sei ein offenes Intervall I ⊂ R und die R-Vektorräume
C := C (I; R) = {α : I → R : α stetig} ,
D := D(I; Rn ) = {φ = t (φ1 , . . . , φn ) : I → Rn :
φi beliebig oft differenzierbar} .
Matrizen A ∈ M(n × n; C ) und b ∈ M(n × 1; C ) bestimmen das lineare Differentialglei-
chungssystem
y′ = A · y + b . (∗)
Für b = 0 heißt das System homogen. Die Lösungsräume sind erklärt durch
L := {φ ∈ D : φ ′ = A · φ + b} und L0 := {φ ∈ D : φ ′ = A · φ } .
a) Zeigen Sie, dass L0 ⊂ D ein Untervektorraum und L ⊂ D ein affiner Unterraum
ist.
b) Zeigen Sie, dass für φ (1) , . . . , φ (n) ∈ L0 folgende Bedingungen äquivalent sind:
i) φ (1) , . . . , φ (n) sind über R linear unabhängig.
ii) Für(ein x0) ∈ I sind φ (1) (x0 ), . . . , φ (n) (x0 ) ∈ Rn linear unabhängig.
( j)
iii) det φi ̸= 0. Diese Determinante heißt W RONSKI-Determinante.
c) Zeigen Sie, dass dimL = n (unabhängig von A).
Hinweis: Man benutze die in der Analysis bewiesene Existenz- und Eindeutigkeitsaussa-
ge ([Fo 2], §12), wonach es bei gegebenem x0 zu beliebigem Anfangswert c ∈ Rn genau
eine Lösung φ von (∗) mit φ (x0 ) = c gibt.
12. Bestimmen Sie alle Lösungen der Differentialgleichung y′′ = −y. überführen Sie
dazu die Differentialgleichung mit dem Ansatz y0 = y, y1 = y′ in ein lineares Diffe-
rentialgleichungssystem wie in Aufgabe 11, und benutzen Sie, dass φ genau dann eine
Lösung von y′′ = −y ist, wenn (φ , φ ′ ) eine Lösung des linearen Systems ist.
3.2 Existenz und Eindeutigkeit 43

Ergänzungsaufgaben
E1. Bestimmen Sie die Diskriminante D f von f = at 2 + bt + c ∈ R[t] mit a ̸= 0 (vgl.
die Lösung von Aufgabe 6 zu Abschnitt 3.1). Wann ist sie gleich 0? Deuten Sie dies
geometrisch.

Möbius-Transformation

E2. Es seien ω1 , ω2 ∈ C und Ω := {m · ω1 + n · ω2 : m, n ∈ Z}. Das zugehörige Gitter ist


in Abbildung 3.1 zu sehen.
a) Auf Ω wird eine Addition ⊕ definiert durch
(m1 ω1 + n1 ω2 ) ⊕ (m2 ω1 + n2 ω2 ) := (m1 + m2 )ω1 + (n1 + n2 )ω2
für m1 , m2 , n1 , n2 ∈ Z.
Zeigen Sie, dass (Ω, ⊕) eine abelsche Gruppe ist.
b) ω̃1 , ω̃2 ∈ C erzeugen dieselbe Gruppe Ω wie ω1 und ω2 genau dann, wenn a, b, c, d ∈
Z existieren(mit ) ( )( ) ( )
ω̃1 a b ω1 a b
= und det = ±1 .
ω̃2 c d ω2 c d

E3. Eine Abbildung M : C → C mit M(x) := a·z+b


c·z+d und a, b, c, d ∈ C heißt Möbius-
Transformation.
a) Weisen Sie nach, dass eine Möbius-Transformation M surjektiv, im Fall ad − bc ̸= 0
bijektiv ist.
b) Zeigen Sie, dass die Menge der Möbius-Transformationen mit ad − bc ̸= 0 bzgl. der
Hintereinanderausführung von Funktionen eine nicht kommutative Gruppe bildet.
c) Zeigen Sie, dass durch ( )
a·z+b a b
7→
c·z+d c d
ein Gruppenhomomorphismus von der Menge der Möbius-Transformationen nach
M(2; R) definiert wird.
Verändern Sie die Abbildung so, dass sie bijektiv wird.

Bild 3.1: Gitter in der Ebene


44 3 Determinanten

im (z) bezeichne den Imaginärteil einer komplexen Zahl, und sei


H := {z ∈ C : im (z) > 0}
der Bereich der komplexen Ebene oberhalb
( der
) reellen Achse. Ferner sei
a b
A= ∈ M(2; R) .
c d
d) Zeigen Sie, dass im Fall det A > 0 durch
a·z+b
A · z :=
c·z+d
eine Operation auf H definiert wird, d.h. A · z ∈ H für alle z ∈ H.
Hinweis. Die Möbius-Transformation findet in unterschiedlichen Bereichen der Mathe-
matik und der Physik Anwendung. Einerseits ist hier die Relativitätstheorie in der Physik
zu nennen. Die Inhalte der Aufgaben E2 und E3 bieten auch die Möglichkeit der fachli-
chen Vertiefung in Richtung der komplexen Analysis (vgl. [Ne], ab Kapitel 3).

3.3 Minoren∗
1. In dieser Aufgabe geht es um weitere Eigenschaften der komplementären Matrix.
a) Ist die Abbildung M(n × n; K) → M(n × n; K), A 7→ A♯ linear?
b) Zeigen Sie: t (A♯ ) = (t A)♯ , (AB)♯ = B♯ A♯ .
c) det A♯ = (det A)n−1 .
d) (A♯ )♯ = (det A)n−2 · A.

2. Sind A, B ∈ M(m × n; K) und ist m > n, so folgt det A · t B = 0.


3. Beweisen Sie die Formel für det A · t B aus 3.3.7 durch direktes Ausrechnen, wenn
A, B ∈ M(2 × 3; K) sind.
4. Beweisen Sie:  
a b c d
 −b a −d c 
det  = (a2 + b2 + c2 + d 2 )2 .
−c d a −b 
−d −c b a
5. Für x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) aus K n sind äquivalent:
i) x und( y sind linear ) abhängig.
xi yi
ii) det = 0 für alle i, j.
xj yj

6. Ist E = span (x, y) ⊂ K n ein 2-dimensionaler Untervektorraum, so definieren wir


( )
xi yi
pi j = det für 1 6 i < j 6 n .
xj yj
n
Man nennt p(x, y) = (pi j )16i< j6n ∈ K (2) die (homogenen) Plückerkoordinaten von
E = span (x, y); nach Aufgabe 5 ist p(x, y) ̸= 0.
3.3 Minoren∗ 45

a) Zeigen Sie, dass die Plückerkoordinaten bis auf einen Faktor aus K r {0} nur von
E abhängen: Ist E = span (x, y) = span (x′ , y′ ), so existiert ein λ ∈ K r {0} mit
p(x, y) = λ · p(x′ , y′ ). In diesem Sinne wollen wir auch einfach von den Plücker-
koordinaten p(E) von E reden, diese sind dann bis auf einen Faktor ̸= 0 eindeutig
bestimmt.
b) Zeigen Sie: Sind E1 , E2 ⊂ K n Untervektorräume der Dimension 2, so dass p(E1 ) und
p(E2 ) linear abhängig sind, so folgt E1 = E2 .
c) Ist E = span (x, y) ⊂ K 4 , so erfüllen die Plückerkoordinaten (pi j ) von E die Glei-
chung p12 p34 − p13 p24 + p14 p23 = 0. Ist umgekehrt p = (pi j )16i< j64 ∈ K 6 r 0 gege-
ben mit p12 p34 − p13 p24 + p14 p23 = 0, so existiert ein 2-dimensionaler Untervektor-
raum E = span (x, y) ⊂ K 4 mit p(E) = p.
d) Sind E1 = span (x, y), E2 = span (x′ , y′ ) ⊂ K 4 zweidimensionale Untervektorräume
mit Plückerkoordinaten p(E1 ) = (pi j ), p(E2 ) = (qi j ), so gilt:
 
x1 y1 x1′ y′1
′ ′
 x y2 x2 y2 
E1 ∩ E2 ̸= {0} ⇔ det  2
x3 y3 x3′ y′3 
=0
x4 y4 x4′ y′4
⇔ p12 q34 − p13 q24 + p14 q23 + p23 q14 − p24 q13 + p34 q12 = 0 .

7. Zeigen Sie, dass det(x) = ∑σ ∈Sn sign(σ ) · x1σ (1) · . . . · xnσ (n) ∈ K[x11 , . . . , xnn ] ein irre-
duzibles Polynom ist, das heißt, dass aus det(x) = P · Q mit Polynomen P und Q stets
P ∈ K oder Q ∈ K folgt.
Ergänzungsaufgaben
E1. Zeigen Sie durch explizite Rechnung, dass für A ∈ M(2 × 2; K)
( )♯
A♯ = A
gilt.
E2. Bestimmen Sie die Determinante von
 
0 1 ··· 1
 . .. .. 
 1 .. . . 
A= . .  ∈ M(n × n; K) .
 .. .. . .. 1 
1 ··· 1 0
46 3 Determinanten

3.4 Determinante eines Endomorphismus und Orientierung∗


1. Sei V ein K-Vektorraum, X die Menge aller Basen von V und B ∈ X. Zeigen Sie, dass
die Abbildung
Φ : X → GL(n; K) , A 7→ TAB = MB A (id)
bijektiv ist. Wie hängt Φ im Fall V = Rn mit der in 3.4.3 definierten kanonischen Bijek-
tion
M : X → GL(n; R)
zusammen?
2. Beweisen Sie, dass die Verbindbarkeit von Matrizen in GL(n; R) eine Äquivalenzre-
lation in GL(n; R) definiert.
3. Zeigen Sie, dass man eine invertierbare Matrix A ∈ GL(n; K) durch Spaltenumfor-
mungen vom Typ III auf Diagonalgestalt bringen kann.
4. Zeigen Sie, dass in M(m × n; R) je zwei Matrizen durch einen Weg verbindbar sind.
5. Beweisen Sie, dass GL(n; C) zusammenhängend ist, das heißt, dass je zwei Matrizen
aus GL(n; C) durch einen Weg in GL(n; C) verbunden sind.

Ergänzungsaufgabe
E1. Zur Übung können die Determinanten der Matrizen berechnet werden, die im Auf-
gabenteil im Anschluss an Abschnit 2.7 angegeben wurden. Dort sollte man die inversen
Matrizen berechnen, deshalb ist klar, dass keine dieser Matrizen die Determinante null
haben kann (vgl. D10 und D11 aus 3.1.3).
Kapitel 4
Eigenwerte
Die Untersuchung von Eigenwerten und Eigenräumen bzw. Haupträumen einer linea-
ren Abbildung ist zentral für die lineare Algebra, weil sie zur Klassifizierung linearer
Abbildungen führt. Dies geschieht durch Zerlegung“ einer linearen Abbildung in die

direkte Summe möglichst einfacher linearer Abbildungen, die auf niedrigerdimensiona-
len Räumen operieren. Im Fall eines in Linearfaktoren zerfallenden charakteristischen
Polynoms führt dies auf die Jordansche Normalform eines Endomorphismus, ein wahr-
haft faszinierendes Konzept, dessen Details sich oft nur erschließen, wenn man eine
gewisse Anzahl Aufgaben löst. Wir haben einige ergänzende Aufgaben im Anschluss an
4.6 aufgelistet.

4.1 Beispiele und Definitionen


1. Zeigen Sie: Ein nilpotenter Endomorphismus hat Null als einzigen Eigenwert.
2. Gegeben sei die lineare Abbildung F : D(I; R) → D(I; R), φ 7→ φ ′′ , wobei I ⊂ R ein
Intervall ist.
a) Bestimmen Sie die reellen Eigenwerte von F.
b) Bestimmen Sie eine Basis von Eig(F, −1).

3. Sei I ⊂ R ein offenes Intervall. Durch eine Matrix A ∈ M(n × n; R) ist das homogene
lineare Differentialgleichungssystem
y′ = A · y
bestimmt; nach Aufgabe 11 zu 3.2 hat der zugehörige Lösungsraum
L0 = {φ ∈ D(I; Rn ) : φ ′ = A · φ } ⊂ D(I; Rn )
die Dimension n. Um Lösungen zu erhalten, kann man den Ansatz
φ (t) = eλ t · v
benutzen, wobei λ ∈ R und v ∈ Rn . Zeigen Sie:
a) φ (t) = eλ t · v ist eine Lsung ̸= 0 von y′ = A · y genau dann, wenn v Eigenvektor von
A zum Eigenwert λ ist.
b) Lösungen φ (1) (t) = eλ1t · v1 , . . . , φ (k) (t) = eλk t · vk sind linear unabhängig genau dann,
wenn v1 , . . . , vk linear unabhängig sind.
Insbesondere erhält man mit diesem Ansatz eine Basis des Lösungsraums, falls A diago-
nalisierbar ist.
4. Sei V ein K-Vektorraum und F : V → V linear. Zeigen Sie: Hat F 2 + F den Eigenwert
−1, so hat F 3 den Eigenwert 1.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_5
48 4 Eigenwerte

5. Gegeben sei ein K-Vektorraum V und F, G ∈ End(V ). Beweisen Sie:


a) Ist v ∈ V Eigenvektor von F ◦ G zum Eigenwert λ ∈ K, und ist G(v) ̸= 0, so ist G(v)
Eigenvektor von G ◦ F zum Eigenwert λ .
b) Ist V endlichdimensional, so haben F ◦ G und G ◦ F dieselben Eigenwerte.
Ergänzungsaufgabe  
1 1 1
0 3 3 3
 1
0 1 1 
E1. Gegeben seien P = 

3
1 1
3 3
1
 und π0 = (1, 0, 0, 0).

3 3 0 3
1 1 1
3 3 3 0
a) Berechnen Sie mithilfe eines CAS π0 · Pn für verschiedene n ∈ N und stellen hier-
mit eine Vermutung über lim π0 · Pn auf. (Zur Definition und Wohldefiniertheit der
n→∞
Multiplikation vgl. Abschnitt 2.7, Aufgabe E2 a).)
b) Bestätigen Sie, dass der Grenzwert π = lim π0 · Pn existiert.
n→∞
c) Zeigen Sie, dass π aus Teil b) ein Eigenvektor von P zum Eigenwert 1 ist.

Bemerkung: Die Matrix P ist ein Beispiel für eine Übergangsmatrix in Verbindung zu
Markov-Ketten. Bei π handelt es sich um eine stationäre Wahrscheinlichkeitsverteilung.
Bei jeder irreduziblen und nicht periodischen Markov-Kette existiert mindestens eine
stationäre Verteilung. Für Details vgl. [Hä], Kapitel 5 oder [S3], S. 94ff.

4.2 Das charakteristische Polynom


1. Berechnen Sie das charakteristische Polynom, die Eigenwerte und Eigenvektoren von
   
2 2 3 −5 0 7
 1 2 1  und  6 2 −6  .
2 −2 1 −4 0 6

2. Beweisen Sie: Ist A ∈ M(2 × 2; R) symmetrisch, so hat A reelle Eigenwerte.


3. Sei V ein endlichdimensionaler Vektorraum und F ∈ End(V ). Zeigen Sie, dass
PF (0) ̸= 0 genau dann, wenn F ein Isomorphismus ist.
4. Zeigen Sie, dass die Matrix
 
0 ... 0 −α 0
 1 0 ... 0 −α1 
 
 .. .. 
A= 1 . 0 . 
 .. 
 ..
. 0 . 
0 1 −αn−1
das charakteristische Polynom PA (t) = (−1)n (t n + αn−1t n−1 + . . . + α1t + α0 ) besitzt.
4.3 Diagonalisierung 49

5. Sei A ∈ M(n × n; K) und Φ : M(n × n; K) → M(n × n; K) der Endomorphismus, der


durch die Linksmultiplikation mit A gegeben ist, das heißt Φ(B) = AB. Zeigen Sie, dass
für die charakteristischen Polynome von A und Φ gilt: PΦ = (PA )n .
Ergänzungsaufgabe
E1. Bestimmen Sie die charakteristischen Polynome der Matrizen
 
1 3 0
a) A :=  −2 2 −1 ,
4 0 −2
 
1 2 3
b) B :=  4 5 6 .
7 8 9

E2. Bestimmen ( Sie Eigenvektoren


) und (Eigenwerte)der Matrizen A und B über R und
1 −1 3 −1
über C für A := und B := .
2 −1 1 1

4.3 Diagonalisierung
1. Beweisen Sie Teil 2) von Satz 4.3.1 mit Hilfe von Theorem 4.3.3.
2. Sind die folgenden Matrizen diagonalisierbar?
     
1 2 0 4
−5 0 7 2 1 2
 0 2 3 1   ,  −2
 0 0 3 0  , 6 2 −6 −2 −6  .
−4 0 6 1 2 5
0 0 0 3
3. Für welche a, b ∈ R ist die Matrix
 
−3 0 0
 2a b a 
10 0 2
diagonalisierbar?
4. Wir betrachten das Differentialgleichungssystem mit Anfangswertbedingung
ẏ = A · y, y0 (0) = α , y1 (0) = β (∗)
für die gedämpfte Schwingung (siehe 4.3.5), wobei
( )
0 1
A= .
−ω 2 −2µ

a) Im Fall µ > ω ist A (reell) diagonalisierbar. Bestimmen Sie eine Basis des R2 aus
Eigenvektoren von A und geben Sie eine Basis des Lösungsraums von ẏ = A · y an
(vgl. Aufgabe 3 zu 4.1). Wie sieht die Lösung von (∗) aus?
b) Im Fall µ < ω ist A ∈ M(2 × 2; C) komplex diagonalisierbar. Bestimmen Sie die
Eigenwerte von A und geben Sie eine Basis des C2 aus Eigenvektoren von A an. Ist
50 4 Eigenwerte

λ ∈ C Eigenwert von A zum Eigenvektor v ∈ C2 , so ist re eλ t · v, im eλ t · v eine Basis


des Lösungsraums von ẏ = A · y ([Fo2], §13). Bestimmen Sie auch in diesem Fall die
Lösung von (∗).

5. Diagonalisieren Sie die Matrizen


   
−5 1 6 6 2 0 −1 −4
 −12 2 12 12   −3 1 3 0 
A=
0 −2 
B=
−2 
,
1 1 2 0 −1
−4 0 4 6 1 0 −1 −3
aus M(4 × 4; R) simultan, d. h. bestimmen Sie eine Matrix S ∈ GL(4; R), so dass SAS−1
und SBS−1 Diagonalmatrizen sind.
6. Seien A, B ∈ M(n × n; K) mit AB = BA und alle Eigenwerte von A und B seien einfach.
Dann gilt: A und B haben die gleichen Eigenvektoren.
7. Zeigen Sie, dass es für λ ∈ K und natürliche Zahlen µ , n mit 1 6 µ 6 n stets eine
Matrix A ∈ M(n × n; K) gibt mit µ (PA ; λ ) = µ und dim Eig(A; λ ) = 1.
8. Es sei K ein Körper mit char K ̸= 2. Zeigen Sie, dass die Lösungen der Gleichung
A2 = E2 in M(2 × 2; K) genau von der folgenden Gestalt sind:
( )
1 0
A = E2 , A = −E2 oder A = SDS−1 mit D = und S ∈ GL(2; K) .
0 −1
9. Sei F ein diagonalisierbarer Endomorphismus eines endlichdimensionalen R-Vektor-
raums, für den gilt: Sind v und w Eigenvektoren von F, so ist v + w ein Eigenvektor von
F oder v + w = 0. Zeigen Sie, dass es ein λ ∈ R gibt mit F = λ · id.
10. Seien A, B ∈ M(3 × 3; R) zwei Matrizen mit den charakteristischen Polynomen
PA (t) = −t 3 + 2t 2 − t und PB (t) = −t 3 + 7t 2 − 9t + 3. Zeigen Sie, dass der Kern von
AB die Dimension 1 hat.
Ergänzungsaufgabe ( )
0 1
E1. Es sei F : R2 → R2 die durch die Matrix A := dargestellte lineare Ab-
1 1
bildung. Mit Hilfe von F wird wie folgt eine rekursive Folge von Vektoren definiert:
v0 = t (0, 1) und vn+1 = A · vn für n ∈ N .
a) Berechnen Sie die ersten zehn Glieder dieser Folge.
b) Bestimmen Sie die Eigenwerte und Eigenvektoren der Abbildung F, und zeigen Sie
hiermit, dass A diagonalisierbar ist.
c) Berechnen Sie D := T −1 AT für eine Matrix T , deren Spalten die Einheitsvektoren
von F sind.
(Es gilt T = S−1 in der sonst üblichen Notation aus [Fi1].)
d) Benutzen Sie Teil c), um die Matrizen An und die Vektoren vn in Abhängigkeit von
n direkt (d.h. nicht rekursiv) zu bestimmen.
4.4 Trigonalisierung∗ 51

4.4 Trigonalisierung∗
1. Zeigen Sie, dass das Polynom t n − 2 ∈ Q[t] fr n > 2 keinen Teiler P ∈ Q[t] mit
1 6 deg P 6 n − 1 besitzt.
2. Trigonalisieren Sie mit dem Verfahren aus 4.4.5 die Matrizen
   
3 0 −2 −1 −3 −4
 −2 0 1  ,  −1 0 3 .
2 1 0 1 −2 −5
3. Zeigen Sie mit Induktion nach n = dimV : Ist V ein endlichdimensionaler K-Vektorraum
und F : V → V ein nilpotenter Endomorphismus, so existiert eine Basis B von V mit
 
0 ∗
MB (F) =  . .. ,
0 0
und es gilt PF (t) = ±t n .
4. (Fortsetzung von Aufgabe 4 in 4.3.) Zeigen Sie, dass die Matrix
( )
0 1
A=
−ω 2 −2µ
im Fall µ = ω trigonalisierbar ist, und bestimmen Sie eine Matrix S ∈ GL(2; R), so
dass B = SAS−1 obere Dreiecksmatrix ist. Das System ẏ = A · y geht somit durch die
Substitution z = Sy über in ż = B · z, und es reicht, das (einfachere) System ż = B · z zu
lösen. Bestimmen Sie auf diese Weise eine Basis des Lösungsraums von ẏ = A · y und
lösen (∗) in 4.3.5 auch im aperiodischen Grenzfall.

4.5 Potenzen eines Endomorphismus∗


1. Sei F : V → V linear und P ∈ K[t]. Zeigen Sie: Ist λ ∈ K ein Eigenwert von F, so ist
P(λ ) ein Eigenwert von P(F).
2. Ist F : V → V linear und P, Q ∈ K[t], so ist
P(F) ◦ Q(F) = Q(F) ◦ P(F) = (P · Q)(F) .

3. Sei F : V → V ein Endomorphismus des K-Vektorraums V . Dann gilt:


a) Die Abbildung ΦF : K[t] → End(V ), P(t) 7→ P(F) ist ein Homomorphismus von
Ringen und von K-Vektorräumen.
b) K[F] = {P(F) : P ∈ K[t]} ist ein kommutativer Unterring von End(V ).
c) Ist dimV = n < ∞, so existiert ein normiertes Polynom P ∈ K[t] vom Grad 6 n2 mit
2
P(F) = 0. (Hinweis: Betrachten Sie id, F, F 2 , . . . , F n .)

4. Beweisen Sie den Satz von C AYLEY-H AMILTON durch direkte Rechnung für Matri-
zen A ∈ M(2 × 2; K).
52 4 Eigenwerte

5. Beweisen Sie den Satz von C AYLEY-H AMILTON für einen diagonalisierbaren Endo-
morphismus.
6. Geben Sie noch einen anderen Beweis des Satzes von C AYLEY-H AMILTON durch
Induktion von n = dimV mit der folgenden Methode:
Für ein 0 ̸= v ∈ V sei k mit 1 6 k 6 n maximal, so dass
v, F(v), . . . , F k−1 (v)
linear unabhängig sind, und W ⊂ V der von diesen Vektoren aufgespannte Raum.
a) Zeigen Sie, dass F(W ) ⊂ W und berechnen Sie PG (t) für G := F|W (siehe Aufgabe
4 in 4.2).
b) Zeigen Sie PG (G) = 0 ∈ End (W ).
c) Folgern Sie daraus im Fall k < n mit der Bemerkung aus 4.4.1 und der Induktions-
annahme, dass PF (F) = 0.

7. Seien λ1 , . . . , λr ∈ K die paarweise verschiedenen Eigenwerte eines diagonalisierbaren


Endomorphismus F über einem endlichdimensionalen Vektorraum. Zeigen Sie, dass (t −
λ1 ) · . . . · (t − λr ) ∈ K[t] das Minimalpolynom von F ist.

4.6 Die Jordansche Normalform∗


1. Bestimmen Sie die Haupträume der folgenden Matrizen:
 
  2 3 3 1 8
1 4 2 1
 0 2 7 2 8 
 0 1 2 −1   
 0 0 1 −3  ,  0 0 2 5 4 .
 0 0 0 −1 −4 
0 0 0 −1
0 0 0 0 −1
2. Bestimmen Sie Basen, bezüglich derer die folgenden nilpotenten Matrizen Jordansche
Normalform haben, und geben Sie jeweils das Minimalpolynom an:
 
  1 −2 0 −1 2
0 2 2  1 −3 −1 0 3 
 0 0 2 ,   0 2 1 −1 −3  .

0 0 0  1 0 0 −1 −2 
0 −1 0 0 2
3. Bestimmen Sie Basen, bezüglich derer die folgenden Matrizen Jordansche Normal-
form haben, und geben Sie jeweils das charakteristische und das Minimalpolynom an:
 
  2 1 1 0 −2
3 4 3  1 1 1 0 −1 
 −1 0 −1  ,   1 0 2 0 −1  .

1 2 3  1 0 1 2 −2 
1 0 1 0 0
4.6 Die Jordansche Normalform∗ 53

4. Mit Hilfe des Satzes über die Jordansche Normalform kann man recht einfach hohe
Potenzen von Matrizen berechnen. Zeigen Sie:
a) Ist A ∈ M(n × n; K), S ∈ GL(n; K) und m ∈ N, so gilt (SAS−1 )m = SAm S−1 .
b) Sind A, B ∈ M(n × n; K) mit AB = BA und m ∈ N, so gilt
m ( )
m k m−k
(A + B)m = ∑ AB .
k=0 k
c) Bestimmen Sie für die Matrix
 
3 4 3
A =  −1 0 −1 
1 2 3
eine Matrix S ∈ GL(3; R), so dass A = S(D + N)S−1 , wobei D Diagonalmatrix, N nil-
potent und DN = ND ist. Berechnen Sie mit Hilfe von a) und b) (und ohne Computer)
A50 .

5. Betrachten Sie die Verallgemeinerung der Exponentialfunktion für Matrizen; für jede
Matrix A ∈ M(n × n; R) existiert
m
1
exp(A) := lim ∑ Ak .
k=0 k!
m→∞

a) Bestimmen Sie exp(D) für eine Diagonalmatrix D.


b) Ist A ∈ M(n × n; R) und S ∈ GL(n; R), so folgt exp(SAS−1 ) = S · exp(A) · S−1 .
c) Sind A, B ∈ M(n × n; R) mit AB = BA, so gilt exp(A + B) = exp(A)exp(B).
d) Bestimmen Sie für die Matrix
 
3 0 −2
A=  −2 0 1 
2 1 0
eine Matrix S ∈ GL(3; R), so dass A = S(D + N)S−1 , wobei D Diagonalmatrix, N
nilpotent und DN = ND ist, und berechnen Sie exp(A).

6. Zeigen Sie, dass für die Zahlen s1 , . . . , sd in 4.6.5 gilt:


sl = dim(Ul /Ul−1 ) − dim(Ul+1 /Ul ) .

7. Gegeben sei ein endlichdimensionaler C-Vektorraum V . Zwei Endomorphismen


F und G von V heißen ähnlich, wenn es einen Isomorphismus H von V gibt mit
G = H ◦ F ◦ H −1 .
a) Zeigen Sie, dass dadurch eine Äquivalenzrelation auf der Menge der Endomorphis-
men von V gegeben ist.
54 4 Eigenwerte

b) Für F, G ∈ End(V ) sind folgende Bedingungen gleichwertig:


i) F und G sind ähnlich.
ii) Für jede Basis B von V sind MB (F) und MB (G) ähnlich.
iii) Die Jordanschen Normalformen von F und G haben (bis auf die Reihenfolge)
die gleichen Invarianten.

8. Sei F ∈ EndK (V ) ein Endomorphismus, dessen charakteristisches Polynom in Linear-


faktoren zerfällt. Beweisen Sie, dass man das Minimalpolynom MF aus den Invarianten
von F berechnen kann: Mit den Bezeichnungen von 4.6.7 gilt
MF (t) = (t − λ1 )d1 · . . . · (t − λk )dk .

9. Sei V ein 6-dimensionaler R-Vektorraum und F ein Endomorphismus von V mit


PF (t) = (t − 1)(t + 2)5 , MF (t) = (t − 1)(t + 2)3 . Bestimmen Sie alle möglichen Jor-
danschen Normalformen von F.
10. Sei V ein endlichdimensionaler R-Vektorraum und F ein Endomorphismus von V
mit F 3 = F. Zeigen Sie, dass F diagonalisierbar ist.
Ergänzungsaufgabe
E1. Wir haben auch zum Thema Jordansche Normalform einige Ergänzungsaufgaben
zusammengestellt. Man kann an ihnen auch das Ermitteln des charakteristischen und
des Minimalpolynoms, der Eigenvektoren und natürlich der Transformationsmatrizen
üben. Wir wünschen dabei viel Erfolg!
   
2 1 −6 −2
7 −1 1
 −3 6 −20 −7  1
A= 10 14 −5  ,
2 −10 −4 
, B= 9
0
6 3 6
−3 −3 22 9
 
3 1 −2 1 3  
 −4 −1 0 0 −1  31 −144 20
 
C= 0 0 −1 0 0  , D =  −12 31 −2  ,
 0 0 0 −1 1  −138 456 −46
0 0 0 0 −1
 
1 1 0 0 0  
−1 1 1 1
 0 2 1 0 0 
   0 −2 1 1 
E = 0 0 3 1 0 , F =
1 
,
 0 −3
0 0 0 4 1 
0
0 0 0 −4
0 0 0 0 5
 
2 −1 −1 −1 −1  
−3962 −14136 17784 −6780
 0 2 −1 −1 −1 
   588 2104 −2634 1014 
G= 2 −1 −1  , H = 
−774 
0 0 ,
 −454 −1616
2 −1 
2042
0 0 0
−98 −352 440 −176
0 0 0 0 2
4.6 Die Jordansche Normalform∗ 55

   
−5 −5 −2 −22 −18 −33
I =  10 9 3 , J=  18.5 16 25.5  ,
1 1 2 7.5 6 11.5
   
i 1 0.5 0
i −3i 0
4
 0 i 0 0 
K= −i 0  , L = 
0 
0 ,
0 0 i
−1 + i 1
3 − i 1 0 0 0 i
( ) ( )
2−i 0.8 − 0.6i 2.5 −1 + 0.5i
M= , N= .
−2 + i i −1 + 0.5i 1.5 − 2i
Kapitel 5
Euklidische und unitäre Vektorräume
Vektorräume V über den reellen oder komplexen Zahlen sind – zumindest für den Fall
dimV 6 3 – konkret vorstellbar. Daher scheinen viele Aufgaben, gerade zu Beginn des
Kapitels, recht leicht und wenig reizvoll.
Auf der anderen Seite gibt es viele Eigenschaften, die bei euklidischen oder unitären
Vektorräumen nicht ohne weiteres zu erwarten sind. Aus diesem Grund lohnt es sich,
auch an auf den ersten Blick trivial erscheinende Aufgaben oder Probleme einen Gedan-
ken zu verlieren.

5.1 Das kanonische Skalarprodukt im Rn


1. Zeigen Sie, dass für alle x, y ∈ Rn gilt:
a) ⟨x + y, x − y⟩ = ∥x∥2 − ∥y∥2 .
b) ∥x − y∥2 = ∥x∥2 + ∥y∥2 − 2⟨x, y⟩ = ∥x∥2 + ∥y∥2 − 2∥x∥ · ∥y∥ cos ϑ .
(verallgemeinerter Satz von P YTHAGORAS oder Cosinussatz)
c) ∥x + y∥2 − ∥x − y∥2 = 4⟨x, y⟩.
d) ∥x + y∥2 + ∥x − y∥2 = 2∥x∥2 + 2∥y∥2 . (Parallelogramm-Gleichung)

2. Beweisen Sie die Cauchy-Schwarzsche Ungleichung durch direkte Rechnung im Fall


n = 1, 2, 3.
3. Mit Hilfe des Winkels zwischen Vektoren kann man auch den Winkel zwischen Ge-
raden erklären. Sind L = v + Rw und L′ = v′ + Rw′ Geraden im Rn , so sei der Winkel
zwischen L und L′ erklärt durch {
^(w, w′ ) falls ⟨w, w′ ⟩ > 0 ,
^(L, L′ ) :=
^(−w, w′ ) sonst .
Zeigen Sie, dass diese Definition unabhängig von der Auswahl von w und w′ ist, und
dass 0 6 ^(L, L′ ) 6 π2 gilt.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_6
5.1 Das kanonische Skalarprodukt im Rn 57

4. Zwei Vektoren x, y ∈ Rn heißen orthogonal (in Zeichen x⊥y), wenn ⟨x, y⟩ = 0. Sind
x, y ̸= 0, so gilt offenbar π
x⊥y ⇔ ^(x, y) = .
2
Ist L = v + Rw ⊂ Rn eine Gerade, so heißt s ∈ Rn orthogonal zu L, wenn ⟨s, x − y⟩ = 0
für alle x, y ∈ L. Zeigen Sie:
a) Ist L = v + Rw ⊂ Rn eine Gerade und s ∈ Rn , so gilt:
s ist orthogonal zu L ⇔ s⊥w .
b) Ist L = {(x1 , x2 ) ∈ R2 : a1 x1 + a2 x2 = b} eine Gerade im R2 , so ist (a1 , a2 ) orthogonal
zu L.
Zu einer Geraden orthogonale Vektoren kann man benutzen, um den kürzesten Abstand
zwischen einem Punkt und einer Geraden zu bestimmen. Ist L = v + Rw ⊂ Rn eine Ge-
rade und u ∈ Rn , so ist der Abstand zwischen u und L definiert als
d(u, L) := min{∥x − u∥ : x ∈ L} .
Zeigen Sie, dass für den Abstand zwischen u und L gilt:
c) Es gibt ein eindeutig bestimmtes x ∈ L, so dass (x − u) orthogonal zu L ist. Für x gilt
d(u, L) = ∥x − u∥ (d. h. der senkrechte Abstand ist der kürzeste).
Für Geraden im R2 kann man den Abstand von einem Punkt noch einfacher beschreiben.
Es gilt:
d) Ist L ⊂ R2 eine Gerade, s ∈ R2 r {0} orthogonal zu L und v ∈ L beliebig, so ist
L = {x ∈ R2 : ⟨s, x − v⟩ = 0} .
Ist u ∈ R2 , so folgt aus c), dass
|⟨s, u − v⟩|
d(u, L) = .
∥s∥
Ist speziell L = {(x1 , x2 ) ∈ R2 : a1 x1 + a2 x2 = b} und u = (u1 , u2 ), so ergibt sich
|a1 u1 + a2 u2 − b|
d(u, L) = √ .
a21 + a22

Mit Hilfe von d) können wir nun für Gleichungen von Geraden im R2 die sogenannte
Hessesche Normalform herleiten: Ist s ∈ R2 r {0} orthogonal zur Geraden L ⊂ R2 , so
1
sei n := ∥s∥ · s. Dann ist ∥n∥ = 1. Man nennt n einen Normalenvektor zu L; nach d) gilt
für beliebiges v ∈ L, dass
L = {x ∈ R2 : ⟨n, x − v⟩ = 0} .
Für jedes u ∈ R2 gilt dann d(u, L) = |⟨n, u − v⟩|, die Funktion ⟨n, u − v⟩ misst also mit
Vorzeichen den Abstand von u zu L.
58 5 Euklidische und unitäre Vektorräume

5. Aufgabe 4 lässt sich leicht verallgemeinern, um den Abstand zwischen einem Punkt
und einer Hyperebene im Rn zu bestimmen; eine Teilmenge H des Rn heißt dabei Hy-
perebene, falls H ein affiner Unterraum der Dimension (n − 1) ist, d. h. es existiert ein
v ∈ Rn und ein Untervektorraum W ⊂ Rn der Dimension (n − 1), so dass H = v + W .
Ist H = v + span (w1 , . . . , wn−1 ) ⊂ Rn eine Hyperebene, so heißt s ∈ Rn orthogonal zu H,
wenn ⟨s, x − y⟩ = 0 für alle x, y ∈ H. Zeigen Sie:
a) s ist orthogonal zu H ⇔ s⊥wi für i = 1, . . . , n − 1.
b) Ist die Hyperebene gegeben durch H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = b}, so
ist (a1 , . . . , an ) orthogonal zu H.
Ist die Hyperebene H also durch eine Gleichung gegeben, so findet man leicht einen
zu H orthogonalen Vektor. Was man tun kann, falls die Ebene in Parameterdarstellung
gegeben ist, wird in Aufgabe 6 zu 5.2 gezeigt.
Ist H ⊂ Rn eine Hyperebene und u ∈ Rn , so ist der Abstand zwischen u und H erklärt
durch
d(u, H) := min{∥x − u∥ : x ∈ H} .
Beweisen Sie:
c) Es gibt ein eindeutig bestimmtes x ∈ H, so dass (x − u) orthogonal zu H ist. Es gilt
d(u, H) = ∥x − u∥ (d. h. der senkrechte Abstand ist der kürzeste).
d) Ist H = {(x1 , . . . , xn ) ∈ Rn : a1 x1 + . . . + an xn = b} und u = (u1 , . . . , un ) ∈ Rn , so gilt
|a1 u1 + . . . + an un − b|
d(u, H) = √ .
a21 + . . . + a2n
Ist N orthogonal zu H mit ∥N∥ = 1 und v ∈ H beliebig, so leitet man wie in Aufgabe 4
die Hessesche Normalform der Gleichung der Hyperebene ab:
H = {x ∈ Rn : ⟨N, x − v⟩ = 0} .
5.2 Das Vektorprodukt im R3 59

6. Seien N ⊂ L (R) wie in Beispiel 2b) aus 2.2.6. Betrachten Sie die Abbildungen

∥ ∥ : L (R) → R , f 7→ | f (t)| dt , und
R
∥ ∥′ : L (R)/N → R , f + N 7→ ∥ f ∥ .

Welche davon ist eine Norm?

5.2 Das Vektorprodukt im R3


1. Zeigen Sie für x, y, z ∈ R3 die Grassmann-Identität
x × (y × z) = ⟨x, z⟩y − ⟨x, y⟩z
und folgern daraus die Jacobi-Identität
x × (y × z) + y × (z × x) + z × (x × y) = 0 .

2. Für x, x′ , y, y′ ∈ R3 gilt:
   
x1 y1 y′1 x1 y1 x1′
a) (x × y) × (x′ × y′ ) = x′ · det  x2 y2 y2  − y · det  x2
′ ′ y2 x2 .

x3 y3 y′3 x3 y3 x3′
b) ⟨x × y, x′ × y′ ⟩ = ⟨x, x′ ⟩⟨y, y′ ⟩ − ⟨y, x′ ⟩⟨x, y′ ⟩.

3. Seien x, y, z ∈ R3 . Dann gilt:


x, y, z sind linear unabhängig ⇔ x × y, y × z, z × x sind linear unabhängig .

4. Gegeben sei eine Ebene E = v + Rw1 + Rw2 ⊂ R3 . Zeigen Sie: Setzt man
a := w1 × w2 und b := ⟨v, a⟩, so gilt
E = {x ∈ R3 : ⟨x, a⟩ = b} .

5. Wir wollen mit Hilfe des Vektorproduktes eine Parameterdarstellung der Schnitt-
geraden zweier nichtparalleler Ebenen im R3 bestimmen. Sind zwei Ebenen
E = v + Rw1 + Rw2 , E ′ = v′ + Rw′1 + Rw′2 ⊂ R3 gegeben, so sei W = Rw1 + Rw2 ,
W ′ = Rw′1 + Rw′2 . Da die beiden Ebenen nicht parallel sind, ist W ̸= W ′ , und damit hat
U = W ∩W ′ die Dimension 1. Zeigen Sie:

a) Ist L = E ∩ E ′ und u ∈ L, so ist L = u +U.


b) Seien s = w1 × w2 , s′ = w′1 × w′2 und w = s × s′ . Dann gilt U = Rw.

Bestimmen Sie nach diesem Verfahren eine Parameterdarstellung von E ∩ E ′ , wobei


E = (0, 2, 3) + R(3, 6, 5) + R(1, 7, −1) ,
E ′ = (−1, 3, 2) + R(8, 2, 3) + R(2, −1, −2) .
60 5 Euklidische und unitäre Vektorräume

6. Das Vektorprodukt zweier Vektoren im R3 lässt sich für n > 3 folgendermaßen zu


einem Produkt von n − 1 Vektoren im Rn verallgemeinern: Sind x(1) , . . . , x(n−1) ∈ Rn , so
sei n
x(1) × . . . × x(n−1) := ∑ (−1)i+1 (det Ai ) · ei ,
i=1
wobei A ∈ M((n − 1) × n; R) die Matrix ist, die aus den Zeilen x(1) , . . . , x(n−1) besteht
und Ai aus A durch Streichen der i-ten Spalte entsteht. Wie im Fall n = 3 entsteht x(1) ×
. . . × x(n−1) also durch formales Entwickeln von
 
e1 e2 ... en
 x(1) (1)
x2 ...
(1) 
xn
 1 
det  .. .. .. 
 . . . 
(n−1) (n−1) (n−1)
x1 x2 . . . xn
nach der ersten Zeile. Zeigen Sie, dass für das verallgemeinerte Vektorprodukt gilt:
a) x(1) × . . . × x(i−1) × (x + y) × x(i+1) × . . . × x(n−1) =
x(1) × . . . × x(i−1) × x × x(i+1) × . . . × x(n−1) +
x(1) × . . . × x(i−1) × y × x(i+1) × . . . × x(n−1) ,
x(1) × . . . × x(i−1) × (λ x) × x(i+1) × . . . × x(n−1) =
λ (x(1) × . . . × x(i−1) × x × x(i+1) × . . . × x(n−1) ).
b) x(1) × . . . × x(n−1) = 0 ⇔ x(1) , . . . , x(n−1) linear abhängig.
 
y1 y2 ... yn
 x(1) (1)
x2
(1)
xn 
 1 
c) ⟨x × . . . × x
(1) (n−1) , y⟩ = det  .. .. .. ,
 . . . 
(n−1) (n−1) (n−1)
x1 x2 ... xn
d) ⟨x(1) × . . . × x(n−1) , x(i) ⟩ = 0, für i = 1, . . . , n − 1.
5.3 Das kanonische Skalarprodukt im Cn 61

5.3 Das kanonische Skalarprodukt im Cn


1. Zeigen Sie, dass die schiefsymmetrische Bilinearform (vgl. 5.4.1) ω : R2n × R2n → R
aus 5.3.2 nicht-entartet ist, d. h. : Ist ω (v, w) = 0 für alle w ∈ R2n , so ist v = 0.
2. Sei J : R2n → R2n der Endomorphismus, der gegeben ist durch
J(x1 , y1 , . . . , xn , yn ) = (−y1 , x1 , . . . , −yn , xn ) .
(Identifiziert man R2n mit Cn wie in 5.3.2, so ist J einfach die Multiplikation mit i.)
Zeigen Sie, dass für das kanonische Skalarprodukt ⟨ , ⟩ im R2n , die Abbildung ω aus
5.3.2 und J der folgende Zusammenhang besteht:
Für alle v, w ∈ R2n ist ⟨v, w⟩ = ω (v, J(w)) .
3. Eine komplexe Struktur auf einem R-Vektorraum V ist ein Endomorphismus J von V
mit J 2 = −id. Zeigen Sie:
a) Mit der skalaren Multiplikation (x + iy) · v := xv + yJ(v) wird V zu einem
C-Vektorraum.
b) Ist V endlichdimensional, so ist dimRV gerade.

5.4 Bilinearformen und Sesquilinearformen


1. Sei K ein Körper mit char K ̸= 2 und V ein K-Vektorraum. Zeigen Sie, dass sich
jede Bilinearform auf V in eindeutiger Weise als Summe einer symmetrischen und einer
schiefsymmetrischen Bilinearform darstellen lässt.
2. Sei V ein 3-dimensionaler R-Vektorraum, A = (v1 , v2 , v3 ) eine Basis von V und s eine
Bilinearform auf V mit  
1 1 2
MA (s) =  1 1 1 .
0 1 1
Zeigen Sie, dass B = (v1 + v2 , v2 + v3 , v2 ) eine Basis von V ist, und berechnen Sie
MB (s).
3. Gegeben seien F, G ∈ Hom(R3 , R) mit F(x1 , x2 , x3 ) = a1 x1 + a2 x2 + a3 x3 ,
G(x1 , x2 , x3 ) = b1 x1 + b2 x2 + b3 x3 . Zeigen Sie, dass s : R3 × R3 → R,
(x, y) 7→ F(x) · G(y) eine Bilinearform ist, und bestimmen Sie die Matrix von s bezüglich
der kanonischen Basis des R3 .
4. Zeigen Sie, dass für einen R-Vektorraum V der folgende Zusammenhang zwischen
Normen und Skalarprodukten gilt:

a) Ist ⟨ , ⟩ ein Skalarprodukt auf V mit zugehöriger Norm ∥v∥ = ⟨v, v⟩, so gilt die
Parallelogramm-Gleichung
∥v + w∥2 + ∥v − w∥2 = 2∥v∥2 + 2∥w∥2 .

b) Ist umgekehrt ∥ ∥ eine Norm auf V , die die Parallelogramm-Gleichung erfüllt, so

existiert ein Skalarprodukt ⟨ , ⟩ auf V mit ∥v∥ = ⟨v, v⟩.
62 5 Euklidische und unitäre Vektorräume

5. Wir wollen zeigen, dass auf einem R-Vektorraum nicht jede Metrik aus einer Norm
und nicht jede Norm aus einem Skalarprodukt entsteht. (Zur Erinnerung: Eine Norm auf
einem R-Vektorraum V ist eine Abbildung V → R+ mit den Eigenschaften N1, N2, N3
aus 5.1.2, eine Metrik auf V ist eine Abbildung V ×V → R+ mit den Eigenschaften D1,
D2, D3 aus 5.1.2.)
a) Zeigen Sie, dass für n > 2 auf dem Rn durch ∥x∥ := max{|xi | : 1 6 i 6 n} eine Norm
√ ist, für die kein Skalarprodukt ⟨ , ⟩ auf R existiert mit
definiert n

∥x∥ = ⟨x, x⟩.


b) Sei V = C (R; R) der Vektorraum der stetigen Funktionen, und für k ∈ N, f ∈ V sei
∥ f ∥k := max{| f (x)| : x ∈ [−k, k]}. Zeigen Sie, dass durch

∥ f − g∥k
d( f , g) := ∑ 2−k
k=0 1 + ∥ f − g∥k
eine Metrik auf V definiert ist, für die keine Norm ∥ ∥ : V → R+ existiert, so dass
∥ f − g∥ = d( f , g).

6. Sei V ein endlichdimensionaler Vektorraum mit Skalarprodukt ⟨ , ⟩ und (v1 , . . . , vr )


eine orthonormale Familie in V . Beweisen Sie, dass die folgenden Bedingungen äquiva-
lent sind:
i) (v1 , . . . , vr ) ist eine Basis von V .
ii) Ist v ∈ V , so folgt aus ⟨v, vi ⟩ = 0 für alle i, dass v = 0 ist.
r
iii) Ist v ∈ V , so gilt: v = ∑ ⟨v, vi ⟩ · vi .
i=1
r
iv) Für alle v, w ∈ V gilt: ⟨v, w⟩ = ∑ ⟨v, vi ⟩ · ⟨vi , w⟩.
i=1
r
v) Für alle v ∈ V gilt: ∥v∥2 = ∑ |⟨v, vi ⟩|2 .
i=1

7. Sei B = ( 12 2, cos x, sin x, cos 2x, sin 2x, . . .) und
W = span B ⊂ C ([0, 2π ]; R) = V
(vgl. mit dem Vektorraum der trigonometrischen Polynome in Aufgabe 4 zu 1.4). Zeigen
Sie:
2∫π
a) Durch ⟨ f , g⟩ := 1
π f (x)g(x) dx ist ein Skalarprodukt auf V definiert.
0
b) B ist eine Orthonormalbasis (bzgl. ⟨ , ⟩) von W .
√ n
c) Ist f (x) = a20 2 + ∑ (ak cos kx + bk sin kx) ∈ W , so gilt ak = ⟨ f , cos kx⟩,
k=1
bk = ⟨ f , sin kx⟩. Für f ∈ V heißen die Zahlen
ak = ⟨ f , cos kx⟩ , k ∈ N r {0}, bl = ⟨ f , sin lx⟩ , l ∈ N r {0} ,
die Fourierkoeffizienten von f .
5.4 Bilinearformen und Sesquilinearformen 63

d)∗ Ist f ∈ V und sind ak , bk die Fourierkoeffizienten von f , so gilt die Ungleichung von
Bessel: ∞
∥ f ∥2 > a20 + ∑ (a2k + b2k ) .
k=1
e)∗ Sind f , g ∈ V stückweise stetig differenzierbar, und sind ak , bk die Fourierkoeffizien-
ten von f und a′k , b′k die Fourierkoeffizienten von g, so gilt die Formel von Parseval:

⟨ f , g⟩ = a0 a′0 + ∑ (ak a′k + bk b′k ) .
k=1

8. Bestimmen Sie mit dem Schmidtschen Verfahren eine Orthonormalbasis des folgen-
den Untervektorraums des R5 :
       
1 1 1 2
 0   0   1   1 
       
span  0  ,  1  ,  1  ,  0  .
 0   0   0   2 
0 0 2 3

9. Gegeben sei auf V = span (1,t,t 2 ,t 3 ) ⊂ R[t] das Skalarprodukt


∫1
s( f , g) = f (t)g(t) dt .
−1

a) Bestimmen Sie die Matrix von s bezüglich der Basis (1,t,t 2 ,t 3 ).


b) Bestimmen Sie eine Orthonormalbasis von V .

10.∗ Ein symplektischer Vektorraum ist ein R-Vektorraum V mit einer schiefsymmetri-
schen Bilinearform ω , die nicht-entartet ist (d.h. dass aus ω (v, w) = 0 für alle w ∈ V
stets v = 0 folgt). Eine Basis (v1 , . . . , vn , w1 , . . . , wn ) von V heißt Darboux-Basis, wenn
gilt: ω (vi , v j ) = ω (wi , w j ) = 0 und ω (vi , w j ) = δi j für alle i, j. Zeigen Sie, dass jeder
endlichdimensionale symplektische Vektorraum eine Darboux-Basis besitzt (und damit
insbesondere gerade Dimension hat).
Ergänzungsaufgaben
E1. Bestimmen Sie nach dem Schmidtschen Verfahren Orthonormalbasen der folgenden
Untervektorräume.
a) span (t (1, 2, 3) , t (4, 5, 6) , t (7, 8, 9)) ⊂ R3 ,
b) span (t (2, 1, 0, 0), t (0, −1, 4, 2), t (1, 0, 2, −2)) ⊂ R4 ,
c) span (t (1, i, −i, 0, 1), t (i, 1, 0, i, 0), t (0, 1, i, −i, −1), t (0, 0, i, 0, 3i)) ⊂ C5 .
E2. Bestimmen Sie eine Orthonormalbasis zu span (t,t 2 + 1,t 2 + t) ⊂ R[t] mit dem
Skalarprodukt aus Aufgabe 9.
64 5 Euklidische und unitäre Vektorräume

E3. Zeigen Sie, dass auf


V = { f ∈ Abb (R, R) : f (x) = 0 bis auf endlich viele x ∈ R}
(vgl. Aufgabe 2 d) zu 1.5) durch
⟨ f , g⟩ := ∑ f (x) · g(x) ,
wobei über alle x ∈ R mit f (x) ̸= 0 und g(x) ̸= 0 addiert wird, ein Skalarprodukt auf V
definiert wird. Bestimmen Sie eine Orthonormalbasis von V bzgl. ⟨ , ⟩.
E4. Für A = (ai j ) ∈ M(n; K) mit K = R oder K = C sei die Spur von A definiert durch
n
Sp(A) := ∑ aii (vgl. [Fi1], 4.2.2). Beweisen Sie die folgenden Aussagen.
i=1
a) Sp (A · B) = Sp (B · A) .
( )
b) Ist B invertierbar, so gilt Sp B−1 · (A · B) = Sp A .

E5. a) Zeigen Sie, dass durch


( )
s(A, B) := Sp t B · A
ein Skalarprodukt auf M(m × n; K) definiert wird.
b) Bestimmen Sie eine Orthonormalbasis von V = M(2; R) bzgl. des Skalarproduktes
aus a).

E6. Die Zuordnung


Sp : M(n; K) → K,
A 7→ Sp A,
ist eine lineare Abbildung.
Lie-Algebra
E7. Für K = R oder K = C sei [ , ] : M(n; K) × M(n; K) → M(n; K) der Operator mit
[A, B] = A · B − B · A .
Bemerkung. Eine unter der Operation [ , ] abgeschlossene Untergruppe I von M(n; K)
– d.h. für A, B ∈ I gilt [A, B] ∈ I – heißt Lie-Algebra (benannt nach dem Mathematiker
M ARIUS S OPHUS L IE, 1842–1899).
Eine exakte Definition einer Lie-Algebra findet sich unten vor Aufgabe E11.

a) Zeigen Sie, dass für alle A, B ∈ M(n; K) gilt: Sp[A, B] = 0.


Es sei gl(n; K) die Lie-Algebra der Matrizen GL(n; K).
Wir definieren mit
sl(n; K) = {A ∈ gl(n; K) : Sp (A) = 0}
die spurlosen“ Matrizen (spezielle lineare Lie-Algebra) und mit

o(n; K) = {A ∈ gl(n; K) : A + tA = 0}
die Lie-Algebra der schiefsymmetrischen Matrizen.
b) Zeigen Sie, dass sl(n; K) eine Lie-Algebra über K ist.
5.4 Bilinearformen und Sesquilinearformen 65

c) Es seien A, B ∈ M(n; K) schiefsymmetrisch, d.h. [A, B] = − t[B, A]. Zeigen Sie, dass
es sich um einen K-Vektorraum handelt.
d) Beweisen Sie, dass Sp A = 0 für alle A ∈ o(n; K) gilt.
e) Es seien A, B ∈ o(n; K). Zeigen Sie, dass t[A, B] = −[A, B] gilt, d.h. dass o(n; K) eine
Lie-Algebra ist.

E8. Wir definieren jetzt die antihermiteschen Matrizen (schiefhermiteschen Matrizen)


u(n) = {A ∈ M(n; C) : A + tĀ = 0}.
Zeigen Sie die Gültigkeit der folgenden Eigenschaften in u(n).
a) Für jedes A = (ai j )16i, j6n ∈ u(n) sind die Diagonalelemente aii imaginär.
b) u(n) ist ein Vektorraum über den Körper der rellen Zahlen, aber kein Vektorraum
über den Körper der komplexen Zahlen.
c) u(n) ist eine Lie-Algebra.

E9. Nach den letzten Aufgaben gilt o(n, R) = u(n) ∩ sl(n, R). Analog definiert man
su(n) := u(n) ∩ sl(n, C) .
Zeigen Sie, dass su(n) einen R-Vektorraum bildet.
E10. Zeigen Sie, dass für A, B,C ∈ gl(n; C) die Jacobi-Identität
[A, [B,C]] + [B, [C, A]] + [C, [A, B]] = 0
gilt. (Bzgl. der Jacobi-Identität für einen anderen Fall vgl. Aufgabe 1 in Abschnitt 5.2.)
Bisher wurden spezielle Fälle von Lie-Algebren untersucht. Die allgemeine Definition
ist:
Definition. Ein Vektorraum V über einen Körper K heißt Lie-Algebra, wenn alle
A, B,C ∈ V die folgenden drei Bedingungen erfüllen:
(1) λ · [A, B] = [λ · A, B] = [A, λ · B] für alle λ ∈ K,
(2) [A, B] = −[B, A],
(3) [A, [B,C]] + [B, [C, A]] + [C, [A, B]] = 0 (Jacobi-Identität).

Hinweis. Lie-Algebren finden Anwendung in der Mathematik und der Physik. Für ma-
thematische Hintergründe vgl. hierzu [F-H], Lecture 8.
Zu Algebra vgl. Aufgabe 7 in Abschnitt 6.3.
E11. Lie-Algebren finden Anwendung in der Quantenmechanik. Ein Beispiel hierfür
sind die folgenden Pauli-Matrizen, die W OLFGANG PAULI (1900–1958) im Zusammen-
hang mit dem Spin von Elektronen verwendete.
Es seien ( ) ( )
1 0 0 1
σ0 = id = , σ1 = ,
( 0 )1 ( 1 0)
0 −i 1 0
σ2 = , σ3 = .
i 0 0 −1
66 5 Euklidische und unitäre Vektorräume

Zeigen Sie für die Pauli-Matrizen:


[ ]
1 2 3
a) ξ = ∈ S3 sei eine Permutation. Dann gilt
i j k
[σi , σ j ] = 2 · i · sign (ξ ) · σk .
{
0 für i ̸= j
b) σi · σ j + σ j · σi = 2 · δi j · σ0 , wobei δi j = das Kronecker-Symbol ist.
1 für i = j
c) (i · σ1 , i · σ2 , i · σ3 ) ist eine Basis des R-Vektorraums su(2) und des C-Vektorraums
sl(2; C) und des R-Vektorraums u(2).
(i· σ0 , i· σ1 , i· σ2 , i· σ3 ) ist eine Basis des R-Vektorraums u(2) und des C-Vektorraums
gl(2).
Hinweis. Genauere Informationen und Hintergründe zu Pauli-Matrizen finden sie
in [S-W], S. 536ff.

Quadriken
In den folgenden Aufgaben werden wir uns mit Quadriken beschäftigen. Zur Vereinfa-
chung haben wir die Bezeichnungen aus [Fi4], Abschnitt 5.2.7, übernommen.
Quadriken sind verallgemeinerte Kegelschnitte bzw. mathematisch formuliert Teilmen-
gen eines affinen Raums, die durch eine quadratische Gleichung beschrieben wer-
den können. Dies kann auf elegante Weise mit Matrizen definiert werden. Bevor wir
diese Definition formulieren, brauchen wir folgende Notation: für einen Vektor x =
t(x , x , . . . x ) ∈ Rn definieren wir den Vektor x′ ∈ Rn+1 durch x′ = t(1, x , x , . . . x ).
1 2 n 1 2 n

) Q ⊂ R heißt Quadrik, wenn es eine symmetrische Matrix


n
( Eine Teilmenge
Definition.
A′ ∈ M (n + 1) × (n + 1) mit rang (A′ ) > 1 gibt, so dass
Q := {x ∈ Rn : t x′ · A′ · x′ = 0}.
Für den Fall n = 2 heißen ein Quadriken auch Kegelschnitte.
Bemerkung. Eine andere( übliche
) Definition von Quadriken ist gegeben durch symme-
trische Matrizen A ∈ M n × n zusammen mit einer Konstanten c ∈ R, so dass
Q = {x ∈ Rn : t x · A · x = c}.

E12.
a) Zeigen Sie, dass die Quadrik des Einheitskreises
Q = { t(x1 , x2 ) ∈ R2 : x12 + x22 − 1 = 0}
auch gegeben ist durch die Matrix A′ mit
 
1 0 0
A =  0 1 0 .

0 0 −1
b) Bestimmen Sie die Matrix A für einen beliebigen Kreis mit Mittelpunkt (m1 , m2 ) und
Radius r.
5.5 Orthogonale und unitäre Endomorphismen 67

E13. Zeigen Sie, dass die folgenden Mengen Q Quadriken sind:


a) Q = {(x1 , x2 ) ∈ R2 : es gibt a1 , a2 , b1 , b2 , c ∈ R mit
a1 x12 + a2 x22 + a3 x1 x2 + b1 x1 + b2 x2 + c = 0},
b) Q = {(x1 , x2 ) ∈ R2 : x12 − x22 − 1 = 0},
c) Q = {(x1 , x2 , x3 ) ∈ R3 : x12 + x22 = 1},
d) Q = {(x1 , x2 , x3 ) ∈ R3 : x12 + x22 = x32 }.

Bemerkung. Weitere Quadriken sind Kreise, Ellipsen und Hyperbeln, s. Abschnitt 0.5.

E14. Zeigen Sie, dass für eine Quadrik Q gilt:


Es gibt eine (nicht triviale) symmetrische Bilinearform β : Rn × Rn → R, eine Linear-
form ω : Rn → R und α ∈ R mit
Q = {x ∈ Rn : β (x, x) + 2ω (x) + α = 0} .

5.5 Orthogonale und unitäre Endomorphismen


1. Zeigen Sie, dass für F ∈ O(3) gilt: F(x) × F(y) = (det F) · F(x × y).
2. Ist V ein euklidischer Vektorraum und F ∈ End(V ), so heißt F winkeltreu, falls F
injektiv ist und
^(v, w) = ^(F(v), F(w)) für alle v, w ∈ V r {0} .
Zeigen Sie, dass F winkeltreu ist genau dann, wenn ein orthogonales G ∈ End(V ) und
ein λ ∈ R r {0} existieren mit F = λ · G.
3. Sei z = x+iy ∈ Cn , wobei x, y ∈ Rn . Zeigen Sie:
x und y sind linear unabhängig über R ⇔ z und z sind linear unabhängig über C .

4. Bestimmen Sie für die Matrix


 √ √ 
66
√ −18 6 10√18
1 
A= 6 √6 72
√ 15 12 
90
−14 18 −9 12 60
eine Matrix S ∈ U(3), so dass t S̄AS Diagonalgestalt hat und eine Matrix T ∈ O(3), so
dass für ein α ∈ [0, 2π [ gilt:
 
1 0 0
t
TAT =  0 cos α − sin α  .
0 sin α cos α

5. Sei π ∈ Sn eine Permutation und die lineare Abbildung fπ : Rn → Rn definiert durch


fπ (x1 , . . . , xn ) = (xπ (1) , . . . , xπ (n) ). Bestimmen Sie die Eigenwerte von fπ .
68 5 Euklidische und unitäre Vektorräume

6. Gegeben sei ein symplektischer Vektorraum V (vgl. Aufgabe 10 zu 5.4) und ei-
ne komplexe Struktur J auf V (vgl. Aufgabe 3 zu 5.3), so dass für alle v, w ∈ V gilt:
ω (v, w) = ω (J(v), J(w)) .
a) Zeigen Sie, dass durch ⟨v, w⟩ := ω (v, J(w)) eine symmetrische Bilinearform auf V
definiert wird, und dass J orthogonal bezüglich ⟨ , ⟩ ist, d. h. es gilt
⟨v, w⟩ = ⟨J(v), J(w)⟩ für alle v, w ∈ V .
b) Die komplexe Struktur J heißt ω -kalibriert, wenn ⟨ , ⟩ positiv definit ist. Zeigen Sie,
dass in diesem Fall durch s(v, w) := ⟨v, w⟩− iω (v, w) eine positiv definite hermitesche
Form auf dem von J induzierten C-Vektorraum V gegeben ist.

Ergänzungsaufgabe
E1. Es sei V ein komplexer Vektorraum und s eine positiv definite hermitesche Form
auf V . Ist J : V → V , v 7→ iv, die durch i definierte komplexe Struktur auf dem reellen
Vektorraum RV , so seien für v, w ∈ V
⟨v, w⟩ := Re (s(v, w)) und ω (v, w) := −Im (s(v, w)) .
Zeigen Sie:
a) ⟨ , ⟩ ist eine positiv definite symmetrische Bilinearform auf RV .
b) Mit ω wird RV zu einem symplektischen Vektorraum (vgl. Aufgabe 10∗ zu 5.4).
c) Für alle v, w ∈ V gilt
⟨v, w⟩ = ⟨J(v), J(w)⟩ sowie ω (v, w) = ω (J(v), J(w)) .
Vergleichen Sie diese Aufgabe mit der Aufgabe 6.

5.6 Selbstadjungierte Endomorphismen∗


1. Sei F : Kn → Kn ein selbstadjungierter, nilpotenter Endomorphismus. Zeigen Sie, dass
F = 0 ist.
2. Seien F und G zwei selbstadjungierte Endomorphismen auf einem endlichdimensio-
nalen euklidischen bzw. unitren Vektorraum V . Zeigen Sie, dass F ◦ G selbstadjungiert
ist genau dann, wenn F ◦ G = G ◦ F.
3. Bestimmen Sie für die Matrix  
2 −1 1
A =  −1 2 1 
1 1 2
eine orthogonale Matrix S ∈ O(3), so dass t SAS eine Diagonalmatrix ist.
5.7 Hauptachsentransformation∗ 69

Ergänzungsaufgaben
Ein Endomorphismus F eines endlichdimensionalen euklidischen oder unitären Vektor-
raumes V heißt anti-selbstadjungiert, wenn für alle v, w ∈ V gilt:
⟨F(v), w⟩ = −⟨v, F(w)⟩ .

E1. Es sei V ein euklidischer Vektorraum und F ein Endomorphismus von V .


a) Zeigen Sie, dass F genau dann anti-selbstadjungiert ist, wenn ⟨F(v), v⟩ = 0 für alle
v ∈ V gilt.
b) Ist F anti-selbstadjungiert und λ ∈ R ein Eigenwert von F, so folgt λ = 0.

E2. Es sei F ein Endomorphismus eines euklidischen Vektorraumes V .


a) B sei eine Orthonormalbasis von V . Dann gilt:
F ist anti-selbstadjungiert ⇔ MB (F) ist schiefsymmetrisch.
b) Ist F anti-selbstadjungiert, so gibt es eine Orthonormalbasis B von V , bezüglich der
 
0 0
 .. 
 . 
 
 0 
 
 0 λ1 
MB (F) =  −λ1 0 
 
 
 . .. 
 
 0 λk 
0
−λk 0
gilt.

Die Theorie von anti-selbstadjungierten Endomorphismen eines unitären Vektorraumes


ergibt sich aus den Aufgaben E1 und E2 zu 6.2 sowie Abschnitt 6.2.7.

5.7 Hauptachsentransformation∗
1. Sei s die symmetrische Bilinearform auf dem R3 , die gegeben ist durch die Matrix
 
3 −2 0
 −2 2 −2  .
0 −2 1
Bestimmen Sie eine Basis A des R3 , so dass MA (s) Diagonalgestalt hat und eine wei-
tere Basis B, so dass  
1 0 0
MB (s) =  0 1 0 .
0 0 −1
70 5 Euklidische und unitäre Vektorräume

2. Sei D = D(] − 1, 1[; R) der Vektorraum der auf ]− 1, 1[ differenzierbaren Funktionen.


a) Zeigen Sie, dass d : D × D → R, ( f , g) 7→ ( f g)′ (0) eine symmetrische Bilinearform
ist.
b) Bestimmen Sie den Ausartungsraum D0 von d.

3. Diagonalisieren Sie die Matrizen


   
1 0 1 0
1 2 2
 2 1 4 ,  0 1 1 2 
 1 1 0 0 
2 4 4
0 2 0 2
mit der symmetrischen Umformungsmethode aus 5.7.6.
4. Eine symmetrische Matrix A ∈ M(n × n; R) heißt negativ definit, wenn
t
xAx < 0
für jedes 0 ̸= x ∈ R . Zeigen Sie: A negativ definit ⇔ −A positiv definit.
n

5. Überprüfen Sie die folgenden Matrizen auf Definitheit:


     
1 2 −2 −3 1 −3 7 0 −8
 2 2 0  ,  1 −2 0  ,  0 1 2 .
−2 0 −4 −3 0 −4 −8 2 17

6. Eine Teilmenge C eines K-Vektorraumes V heißt Kegel, wenn für v ∈ C und λ ∈ K


auch λ · v ∈ C gilt.
Man zeige, dass die in 5.7.4 erklärten Mengen C0 ,C+ und C− im Fall K = R Kegel
sind, und man bestimme diese Kegel sowie V0 explizit für V = R2 , wenn s durch die
Matrix ( )
1 0
0 −1
erklärt ist.
7. Man zeige mit Hilfe der Hauptachsentranformation symmetrischer Matrizen, dass zu
jedem endlich-dimensionalen R-Vektorraum V mit einer symmetrischen Bilinearform s
eine Zerlegung
V = V+ ⊕V− ⊕V0 ,
wie im Trägheitssatz vorausgesetzt, existiert.
5.7 Hauptachsentransformation∗ 71

Ergänzungsaufgaben
E1. Lösen Sie Aufgabe 10∗ aus Abschnitt 5.4 erneut, diesmal mit den Methoden aus
dem Beweis des Orthonormalisierungssatzes 5.7.5 (Induktion über n).
E2. A ∈ GL(n; C) sei hermitesch und Q(x) = ax2 + bx + c, a > 0.
a) Zeigen Sie, dass für die Spur (vgl. [Fi1], 4.2.2 und die Aufgaben ab E4 in Abschnitt
5.1) von A
( )
( ) ( )
Sp Q(A) = a · ∑ a2ii + 2 ∑ (aRij )2 + (aIi j )2 + b · ∑ aii + c · n
i i< j i
gilt, wenn A0 := En gesetzt wird. Hier stehen aRij für den Realteil und aIi j für den
Imaginärteil von ai j .
b) Es sei
( ( ))
P(A) := c · exp −Sp Q(A) dA
( ( )) n ( )
= c · exp −Sp Q(A) ∏ dAii ∏ dARij dAIi j .
i=1 i< j

Bestimmen Sie c so, dass Rn
2 P(A) = 1 gilt (vgl. [Ba]).
Bemerkung. Obige Überlegung bildet eine Grundlage der Theorie von Zufallsmatrizen,
vgl. [Me]. Diese Matrizen dürfen nicht mit den manchmal genauso bezeichneten Über-
gangsmatrizen in Markov-Ketten verwechselt werden.
Kapitel 6
Dualität∗
Die Inhalte dieses Kapitels sind recht abstrakt und für Anfänger möglicherweise verwir-
rend. Bei näherer Beschäftigung entwickeln sie jedoch ihre Reize: die benutzten Me-
thoden werden im Vergleich zu den bisherigen Kapiteln eleganter. Zusätzlich kann die
hier behandelte Mathematik als Grundstein für tieferes Wissen der Algebra oder als Be-
gleiter zu späteren Inhalten des Grundstudiums oder sogar des Hauptstudiums betrachtet
werden. Dies trifft insbesondere für die Abschnitte 6.3 und 6.4 zu.

6.1 Dualräume
1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A und B. Sind A ∗
und B ∗ die zugehörigen dualen Basen von V ∗ , so gilt für die Transformationsmatrizen

TBA∗ = (t TBA )−1 .

2. Gegeben sei der Untervektorraum


     
2 0 4
 3   5   0 
U = span  
 1  ,
 
 1 
,

 1 
 ⊂ R .
5
4 −1 1
3 3 −2
Bestimmen Sie eine Basis von U 0 .
3. Zeigen Sie, dass für Vektorräume V,W durch Hom(V,W ) → Hom(W ∗ ,V ∗ ),
F 7→ F ∗ , ein Isomorphismus von Vektorräumen gegeben ist.
4. Sei F : V → W ein Homomorphismus und U ⊂ W ein Untervektorraum. Zeigen Sie:
F ∗ (U 0 ) = (F −1 (U))0 .
5. Es seien W1 ,W2 ⊂ V Untervektorräume. Zeigen Sie:
a) (W1 +W2 )0 = W10 ∩W20 .
b) (W1 ∩W2 )0 = W10 +W20 .

6.2 Dualität und Skalarprodukte


1. Seien V,W euklidische Vektorräume, F : V → W linear und U ⊂ W ein Untervektor-
raum. Dann gilt: F ad (U ⊥ ) = (F −1 (U))⊥ .
2. Ist V ein euklidischer Vektorraum und F : V → V selbstadjungiert, so gilt
F(U ⊥ ) = (F −1 (U))⊥ für alle Untervektorräume U ⊂ V . Gilt die Umkehrung auch?

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_7
6.3 Tensorprodukte∗ 73

3. Zeigen Sie, dass für einen unitären Vektorraum V durch End(V ) → End(V ),
F 7→ F ad ein Semi-Isomorphismus gegeben ist.
4. Sei A ∈ M(n × n; C) antihermitesch, das heißt −A = t A. Zeigen Sie, dass A normal ist
und alle Eigenwerte von A in iR liegen.
5. Seien L = v + Rw und L′ = v′ + Rw′ zwei Geraden im Rn und x := v′ − v. Zeigen Sie:
L und L′ sind windschief ⇔ x, w und w′ sind linear unabhängig .

6. Gegeben seien zwei windschiefe Geraden L = v + Rw und L′ = v′ + Rw′ im Rn . Wir


wollen zwei Methoden angeben, um den Abstand
d(L, L′ ) = min{d(u, u′ ) = ∥u′ − u∥ : u ∈ L, u′ ∈ L′ }
zu berechnen. Zur Vereinfachung nehmen wir ∥w∥ = ∥w′ ∥ = 1 an und definieren
δ : R2 → R , (λ , λ ′ ) 7→ ∥v′ + λ ′ w′ − v − λ w∥2 .
a) Untersuchen Sie die Funktion δ mit Hilfe der Differentialrechnung auf Extrema und
bestimmen damit den Abstand d(L, L′ ).
b) Es gilt√δ (λ , λ ′ ) = λ 2 + aλ λ ′ + λ ′2 + bλ + cλ ′ + d. Setzen Sie µ := λ + 2a λ ′ und
µ ′ = 4−a ′
2
2 λ und zeigen Sie, dass man auf diese Weise δ durch quadratische
Ergänzung schreiben kann als δ (λ , λ ′ ) = (µ − e)2 + (µ ′ − f )2 + g. Dann ist
g = d(L, L′ ).

Ergänzungsaufgaben
E1. Zeigen Sie, dass ein anti-selbstadjungierter Endomorphismus F (vgl. die Ergän-
zungsaufgaben zu 5.6) eines endlichdimensionalen unitären Vektorraums V normal ist.
E2. Es sei F ein Endomorphismus eines unitären Vektorraumes V und B eine Orthonor-
malbasis von V . Dann gilt:
F ist anti-selbstadjungiert ⇔ MB (F) ist antihermitesch
(vgl. Aufgabe 4).

6.3 Tensorprodukte∗
1. Es sei V ein Vektorraum über einen Körper K und L ⊃ K ein Erweiterungskörper von
L, d.h. L ist ein Körper und K ein Unterring von L (vgl. 1.3.2).
a) Zeigen Sie, dass L eine Struktur als K-Vektorraum trägt.
b) Für Elemente ∑ λi ⊗ vi ∈ L ⊗K V und λ ∈ L definieren wir eine skalare Multiplikation
durch ( )
λ · ∑ λi ⊗ vi := ∑ λ λi ⊗ vi .
Zeigen Sie, dass L⊗K V mit der üblichen Addition und dieser skalaren Multiplikation
zu einem L-Vektorraum wird.
74 6 Dualität∗

c) Ist die Familie (vi )i∈I eine Basis von V über K, so ist die Familie (1 ⊗ vi )i∈I eine
Basis von L ⊗K V über L. Insbesondere gilt dimK V = dimL (L ⊗K V ).
d) Durch die Abbildung
φ : V → K ⊗K V , v 7→ 1 ⊗ v ,
ist ein Isomorphismus von K-Vektorräumen gegeben.

2. Es seien U,V,W Vektorräume über demselben Körper K.


a) Zeigen Sie, dass die Menge Bil (V,W ;U) mit der Addition von Abbildungen und der
üblichen Multiplikation mit Skalaren ein K-Vektorraum ist und dass die kanonische
Abbildung
Bil(V,W ;U) → Hom(V ⊗W,U) ,
ξ 7→ ξ⊗ ,
ein Vektorraumisomorphismus ist. Insbesondere erhält man für V = W und U = K
einen Isomorphismus
Bil (V ; K) → (V ⊗V )∗ , ξ 7→ ξ⊗ .
b) Zeigen Sie analog, dass die Menge Alt2 (V ;W ) mit der Addition von Abbildungen
und der üblichen Multiplikation von Skalaren ein K-Vektorraum ist, und dass die
kanonische Abbildung
Alt2 (V ;W ) → Hom(V ∧V,W ) ,
ξ 7→ ξ∧ ,
ein Vektorraumisomorphismus ist. Für W = K erhält man einen Isomorphismus
Alt2 (V ; K) → V ∗ ∧V ∗ , ξ 7→ ξ∧ .

3. In dieser Aufgabe betrachten wir die kanonische Abbildung


η : V ×W → V ⊗W , (v, w) 7→ v ⊗ w ,
noch etwas genauer.
a) Zeigen Sie, dass Q := η (V × W ) ⊂ V ⊗ W ein Kegel ist, d.h. für u ∈ Q und λ ∈ K
ist λ u ∈ Q.
b)∗ Für V = K m und W = K n gebe man Gleichungen für Q in K m ⊗ K n = K m·n an.
(Hinweis: Beschreiben Sie η durch zi j := xi y j .)
c) Wann ist η injektiv/surjektiv/bijektiv?

4. Es seien V und W Vektorräume über einen Körper K und (vi )i∈I bzw. (w j ) j∈J Familien
linear unabhängiger Vektoren in V bzw. W .
a) Die Familie
(vi ⊗ w j )(i, j)∈I×J
ist linear unabhängig in V ⊗K W .
b) Für Vektoren v ∈ V und w ∈ W gilt:
v ⊗ w = 0 ⇒ v = 0 oder w = 0 .
6.3 Tensorprodukte∗ 75

5. Für K-Vektorräume V , V ′ , W , W ′ sowie Homomorphismen F : V → V ′ und


G : W → W ′ definieren wir das Tensorprodukt von F und G durch
(F ⊗ G) : V ⊗W → V ′ ⊗W ′ ,
v ⊗ w 7→ F(v) ⊗ G(w) .
Zeigen Sie, dass hierdurch ein Vektorraum-Isomorphismus
HomK (V,V ′ ) ⊗ HomK (W,W ′ ) → HomK (V ⊗W,V ′ ⊗W ′ )
definiert wird.
6. Für Vektoren v1 , v2 ∈ V gilt:
v1 , v2 sind linear abhängig ⇔ v1 ∧ v2 = 0 in V ∧V .
7. Sei A ein K-Vektorraum. A heißt K-Algebra, falls es zusätzlich eine Multiplikations-
abbildung
µ : A × A → A , (a, a′ ) 7→ µ (a, a′ ) =: a · a′ ,
mit folgenden Eigenschaften gibt:
1) µ ist K-bilinear.
2) A zusammen mit der Vektorraumaddition und der Multiplikation µ ist ein Ring.
a) Zeigen Sie, dass die folgenden K-Vektorräume auch K-Algebren sind:
i) der R-Vektorraum C,
ii) der K-Vektorraum M(n × n; K) bzgl. der Matrizenmultiplikation,
iii) der K-Vektorraum K[t1 , . . . ,tn ] bzgl. der üblichen Multiplikation von Polynomen
(vgl. Aufgabe 9 zu 1.3).
b) Sind K-Algebren A und B gegeben, so ist A ⊗ B als K-Vektorraum erklärt. Zeigen
Sie, dass A ⊗ B auf eindeutige Weise so zu einer K-Algebra gemacht werden kann,
dass für alle a, a′ ∈ A und b, b′ ∈ B
(a ⊗ b) · (a′ ⊗ b′ ) = (a · a′ ) ⊗ (b · b′ )
gilt.
c) Wird K[t] ⊗ K[t] wie in b) zu einer K-Algebra gemacht, so definiert der Vektorraum-
Isomorphismus
K[t] ⊗ K[t] → K[t1 ,t2 ] , t i ⊗ t j 7→ t1i t2j ,
aus Beispiel 6.3.4 a) einen Isomorphismus von Ringen mit 1K[t]⊗K[t] 7→ 1K[t1 ,t2 ] .

8. Zeigen Sie in Analogie zu Theorem 6.3.8 die Existenz eines symmetrischen Produk-
tes:
Für jeden K-Vektorraum V gibt es einen K-Vektorraum V ∨V zusammen mit einer sym-
metrischen Abbildung
∨ : V ×V → V ∨V ,
die folgende universelle Eigenschaft erfüllen: zu jedem K-Vektorraum W zusammen mit
einer symmetrischen Abbildung ξ : V × V → W gibt es genau eine lineare Abbildung
ξ∨ derart, dass das Diagramm
76 6 Dualität∗

V ×V
Q
∨ Q ξ
Q
? Q
Q
s
ξ∨ -
V ∨V W

kommutiert. Ist (v1 , . . . , vn ) eine Basis von V , so ist durch vi ∨ v j := ∨(vi , v j ) mit i 6 j
eine Basis von V ∨V gegeben. Insbesondere ist
( )
n+1 (n + 1)n
dim(V ∨V ) = = .
2 2
9. Beweisen Sie mit Hilfe der universellen Eigenschaften aus Theorem 6.3.3, Theorem
6.3.8 und Aufgabe 8 die Eindeutigkeit von Tensorprodukt, äußerem Produkt und sym-
metrischem Produkt, d.h.
a) gibt es η̃ : V ×W → V ⊗W ˜ mit denselben Eigenschaften, dann existiert ein Isomor-
phismus τ , so dass das Diagramm 1 kommutiert.

V ×W V ×W V ×W
η η̃ ∧ ∧˜ ∨ ∨˜
@
@
R @
@
R @
R
@
τ- τ- τ-
V ⊗W V ⊗W
˜ V ∧W V ∧W
˜ V ∨W V ∨W
˜

Diagramm 1 Diagramm 2 Diagramm 3


b) gibt es ∧˜ : V ×W → V ∧W˜ mit denselben Eigenschaften, dann existiert ein Isomor-
phismus τ , so dass das Diagramm 2 kommutiert.
c) gibt es ∨˜ : V ×W → V ∨W˜ mit denselben Eigenschaften, dann existiert ein Isomor-
phismus τ , so dass das Diagramm 3 kommutiert.

6.4 Multilineare Algebra∗


1. Führen Sie die Einzelheiten des Beweises von Theorem 6.4.1 aus.
2. Zeigen Sie, dass für K-Vektorräume V1 , V2 und V3 die kanonischen Abbildungen, die
gegeben sind durch
(V1 ⊗V2 ) ⊗V3 - V1 ⊗V2 ⊗V3  V1 ⊗ (V2 ⊗V3 )

(v1 ⊗ v2 ) ⊗ v3 - v1 ⊗ v2 ⊗ v3  v1 ⊗ (v2 ⊗ v3 ) ,
Isomorphismen sind. Folgern Sie daraus, dass für jeden K-Vektorraum W die Vek-
torräume
Bil ((V1 ⊗V2 ),V3 ;W ) , Bil (V1 , (V2 ⊗V3 );W )
(vgl. Aufgabe 2 zu 6.3) und
6.4 Multilineare Algebra∗ 77

Tril (V1 ,V2 ,V3 ;W ) := {ξ : V1 ×V2 ×V3 → W : ξ trilinear}


kanonisch isomorph sind.
3. Beweisen Sie Theorem 6.4.2.
4. Es sei V ein K-Vektorraum.
a) Für Vektoren v1 , . . . , vk ∈ V gilt:

v1 , . . . , vk sind linear abhängig ⇔ v1 ∧ . . . ∧ vk = 0 in k V .
∧k
b) Ist dimV = n, so gilt V = 0 für k > n.

5. Beweisen Sie die folgende Verallgemeinerung von Aufgabe 7 zu Abschnitt 6.3:


Zu einem K-Vektorraum V und einer natürlichen Zahl k > 1 gibt es einen K-Vektorraum
∨k
V zusammen mit einer universellen symmetrischen Abbildung

∨ : V k → kV ,
d.h. zu jeder symmetrischen Abbildung
ξ : Vk → W
gibt es genau eine lineare Abbildung ξ∨ derart, dass das Diagramm
V k = V × . . . ×V
HH
∨ ξ
HH
? H
H
j
∨k ξ∨ -
V = V ∨ . . . ∨V W
∨k
kommutiert. Ist (v1 , . . . , vn ) eine Basis von V , so ist eine Basis von V gegeben durch
die Produkte

vi1 ∨ . . . ∨ vik mit 1 6 i1 6 . . . 6 ik 6 n .


∨k ( )
Insbesondere ist dim V = n+k−1 k .
∨k
Der Raum V heißt symmetrisches Produkt der Ordnung k über V .
6. Es sei (e1 , . . . , en ) eine Basis des Standardraumes K n . Mit K[t1 , . . . ,tn ](k) bezeich-
nen wir den Vektorraum der homogenen Polynome vom Grad k in den Unbestimmten
t1 , . . . ,tn (vgl. Aufgabe 9 zu 1.3). Zeigen Sie, dass durch die Zuordnung
∨k n
K → K[t1 , . . . ,tn ](k) , ei1 ∨ . . . ∨ eik 7→ ti1 · . . . · tik ,
ein Isomorphismus von K-Vektorräumen definiert wird.
∧k
7. V sei ein endlichdimensionaler K-Vektorraum und α = (α1 ∧ . . . ∧ αk ) ∈ V sowie

β = ( β1 ∧ . . . ∧ βl ) ∈ l V .
a) Zeigen Sie, dass eine bilineare Abbildung
∧ ∧ ∧
µ : k V × l V → k+l V
78 6 Dualität∗

mit
(α , β ) 7→ α1 ∧ . . . ∧ αk ∧ β1 ∧ . . . ∧ βl
existiert. Das Element α ∧ β := µ (α , β ) heißt äußeres Produkt von α und β .
b) Es gilt
α ∧ β = (−1)k·l β ∧ α .

8. Es sei V ein endlichdimensionaler K-Vektorraum mit dimV = n.


a) Zeigen Sie, dass die bilinearen Abbildungen, die durch die folgenden Zuordnungen
definiert werden, nicht ausgeartet sind (vgl. 6.2.1).
∧k ∧ ∧ ∼ K , (α , β ) 7→ α ∧ β .
i) V × n−k V → n V =

Die Isomorphie von n V und K ergibt sich dabei aus Theorem 6.4.2.
ii) Als Verallgemeinerung des Beispiels aus 6.2.1
∧k ∗ ∧k
V × V → K , (φ1 ∧ . . . ∧ φk , v1 ∧ . . . ∧ vk ) 7→ det φ (v) ,
wobei  
φ1 (v1 ) · · · φ1 (vk )
 .. .. 
φ (v) = 
 . . .

φk (v1 ) · · · φk (vk )
b) Folgern Sie aus Teil a), dass es kanonische Isomorphismen
∧k ∗ (∧ )∗
i) V → k
V und
∧k ∧n−k ∗
ii) V→ V
gibt.

9. V und W seien K-Vektorräume. Zeigen Sie, dass die Menge


{ }
Altk (V ;W ) := ξ : V k → W : ξ ist alternierend
zusammen mit der Addition von Abbildungen und der üblichen Multiplikation mit Ska-
laren ein K-Vektorraum ist, und dass die kanonische Abbildung

Altk (V ;W ) → Hom( k V ,W ) , ξ 7→ ξ∧ ,
ein Vektorraumisomorphismus ist. Insbesondere erhält man für W = K einen kanoni-
schen Isomorphismus ∧
Altk (V ; K) → k V ∗ .
6.4 Multilineare Algebra∗ 79

Ergänzungsaufgaben
Wir weisen in den folgenden Aufgaben mit den Zusammenhängen
(1) η (u1 , . . . , ui−1 , λ · ui , ui+1 , . . . , uk ) = λ · η (u1 , . . . , ui−1 , ui , ui+1 , . . . , uk )
für alle 1 6 i 6 k und für alle λ ∈ K,
(2) η (u1 , . . . , ui−1 , ui + u∗i , ui+1 , . . . , uk ) = η (u1 , . . . , ui−1 , ui , ui+1 , . . . , uk )
+ η (u1 , . . . , ui−1 , u∗i , ui+1 , . . . , uk )
für alle 1 6 i 6 k, für alle ui , u∗i ∈ Ui ,
nach, dass es sich bei η um eine multilineare Abbildungen handelt.
E1. Für die folgenden Aufgaben bezeichnen wir die Menge der multilinearen Abbildun-
gen zwischen K-Vektorräumen
V1 × . . . ×Vk → W mit Lk (V1 , . . . ,Vk ;W ).
a) Es seien ξ ∈ Lk (V1 , . . . ,Vk ;W ). Für i = 1, . . . , k seien Ui ⊂ Vi Untervektorräume und
fi : Ui → Vi lineare Abbildungen. Ferner sei Z ein K-Vektorraum undg ∈ Hom (W, Z).
Dann ist
g ◦ ξ ( f1 , . . . , fk ) : U1 × . . . ×Uk → Z,
( )
(u1 , . . . , un ) 7→ g ξ ( f1 (u1 ), f2 (u2 ), . . . , fk (uk )) ,
eine multilineare Abbildung, d.h. g ◦ ξ ( f1 , . . . , fk ) ∈ Lk (V1 , . . . ,Vk ; Z). Dies ist im
kommenden Diagramm dargestellt. Es ist zu zeigen, dass das folgende Diagramm
kommutativ ist:

b) Es seien
ξ1 ∈ Lr (V1 , . . . ,Vr ;W1 ),
ξ2 ∈ Lk−r (Vr+1 , . . . ,Vk ;W2 ),
ξ ∈ L2 (W1 ,W2 ; Z).
Dann
( gilt: Die Abbildung
( η : V1 × . . . ×Vk → Z mit )
η v1 , . . . , vk ) 7→ ξ ξ1 (v1 , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ist multilinear, d.h. η ∈ L (V1 , . . . ,Vk ; Z).
k
80 6 Dualität∗

Zu zeigen ist, dass das folgende Diagramm kommutativ ist:

E2. Es sei ξ ∈ Lk (V1 , . . . ,Vk ;W ) multilinear und v ∈ Vi für ein 1 6 i 6 k. Die Abbildung
ξ(i,v) : V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk → W
sei definiert durch
ξ(i,v) (v1 , . . . , vi−1 , vi+1 , . . . , vk ) = ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) .
Beweisen Sie die folgenden Behauptungen.
a) ξ(i,v) ist multilinear, d.h. ξ(i,v) ∈ Lk−1 (V1 , . . . ,Vi−1 ,Vi+1 , . . . ,Vk ).
b) Es sei Vi0 := {v ∈ Vi : ξ(i,v) = 0}. Zeigen Sie, dass Vi0 ein Untervektorraum von Vi ist.
c) Die Abbildung
( )
η : Lk (V1 , . . . ,Vk ;W ) → Hom Vi , Lk−1 (V1 , . . . ,Vi−1 ,Vi+1 , . . . ,Vk ;W ) ,
ξ 7→ (v 7→ ξ(i,v) ),
ist ein Isomorphismus von Vektorräumen.

Im Verlauf dieser Aufgabe werden wir mehrere Indizes für Vektorräume und duale Vek-
torräume brauchen. Um dies übersichtlicher zu machen, werden wir bei Vektoren eines
Vektorraums einen Index im Fuß des Vektors notieren, z.B. vi , wohingegen wir Indi-
zes bei Vektoren des dualen Raums V ∗ im Kopf des Vektors notieren, z.B. vi . Hin und
wieder werden wir auch auf die Einsteinsche Summenkonvention zurückgreifen. Dies
bedeutet, dass, wenn ein Index bei einem Produkt sowohl oben als auch unten auftaucht,
das Summenzeichen weggelassen wird.
Bezeichnet (e1 , e2 , . . . , en ) die kanonische Basis des Rn und v = ∑ni=1 vi ei ∈ V , so kürzt
man dies durch v = vi ei ab. Analog schreibt man ∑ni=1 vi · ei = vi · ei für die kanonische
Basis (e1 , . . . , en ) des dualen Raums V ∗ .
Ferner schreiben wir für das Produkt ei (e j ) = δ ji , wobei δ ji das Kronecker-Symbol
darstellt. Allgemein schreibt man f (v) für v ∈ V und f ∈ V ∗ und nennt dies den Wert
von f an der Stelle v. Eine analoge Schreibweise findet sich in [Fi1] in Abschnitt 6.4.
6.4 Multilineare Algebra∗ 81

E3.
a) V sei ein Vektorraum und V ∗ sein dualer Raum. (e1 , . . . , en ) sei die kanonische Basis
von V . Sei (e′1 , . . . , e′n ) eine weitere Basis von V mit Transformationsformeln
e′j = v′ij · ei und e j = vij · e′i . (6.1)
Für den dualen Raum mit den Basen (e1 , . . . , en ) und (e′1 , . . . , e′n ) gilt
e′j = w′ij · ei und e j = wij · e′i . (6.2)
Zeigen Sie, dass die Matrizen A = (vij )und = A′ (v′i j )
bzw. B = und = (w′i j )
(wij ) B′
jeweils zueinander inverse Matrizen sind.
b) V sei ein Vektorraum und V ∗ sein dualer Raum. (e1 , . . . , en ) sei die kanonische Basis
von V . Sei (e′1 , . . . , e′n ) eine weitere Basis von V mit Transformationsformeln
e′j = v′ij · ei und e j = vij · e′i . (6.3)
Analog sind die Transformationsformeln für den dualen Raum mit Basen (e1 , . . . , en )
und (e′1 , . . . , e′n )
e′ j = vij · ei und e j = v′i j · e′i . (6.4)
Für einen Tensor T seien die Darstellungen bzgl. der Basen gegeben durch
i ···i
T = T j11··· jpp ei1 ⊗ . . . ⊗ ei p ⊗ e j1 ⊗ . . . ⊗ e jq (6.5)
und k ···k
T ′ = Tl1 ···l
1
p
ek1 ⊗ . . . ⊗ e′k p ⊗ e′l1 ⊗ . . . ⊗ e′lq .
p ′

Bestimmen Sie die Transformationsformel für den Wechsel von der Basis (e1 , . . . , en )
zur Basis (e′1 , . . . , e′n ).
c) Es sei x(t) = t(x1 (t), x2 (t), . . . , xn (t)) eine Kurve im Rn . (Für Grundwissen über Kur-
ven vgl. [Fo2], Kapitel 1.)
Zeigen Sie, dass die Geschwindigkeit
( 1 )
dx dxn dx′i ∂ x′ j dx j
v= t ,..., mit =
dt dt dt ∂ x j dt
ein 1-fach kontravarianter Tensor ist (vgl. [Fi1], Abschnitt 6.4).
∂ x′ j
und v′i j = ∂∂ xx′i .
j
Benutzen Sie hierbei vij =
∂ xi
d) Es sei f : Rn → R, (x1 , . . . , xn ) 7→ f (x1 , . . .(, xn ),)eine stetig differenzierbare Funktion
(vgl. [Fo2], Kapitel 1). Zeigen Sie, dass ∂∂ xfi ein 1-fach kovarianter Tensor
16i6n
(vgl. [Fi1], Abschnitt 6.4) ist.
Teil II

Lösungen
Kapitel 0
Lineare Gleichungssysteme

0.3 Ebenen und Geraden im Standardraum R3


1. Hier ist die Äquivalenz von drei Aussagen zu zeigen. Am elegantesten ist es,
i) ⇒ ii) ⇒ iii) ⇒ i) zu zeigen. Wenn wir mit einer dieser Beweisrichtungen
Probleme bekommen, können wir auf andere Schlussrichtungen zurckgreifen.
Das wird hier aber nicht der Fall sein.
i) ⇒ ii): Beweis durch Widerspruch. Angenommen, ii) ist falsch. Dann ist
entweder w = 0, oder es gibt ein ρ ∈ R mit w = ρ · v.
Zunächst sei angenommen, dass w = 0 gilt. Dann gilt sicher w = 0 · v, was ein
Widerspruch zu i) ist.
Nun behandeln wir den Fall, dass ein reelles ρ mit v = ρ · w existiert. Dann ist
entweder ρ = 0 oder ρ ̸= 0; ersteres ist jedoch wegen 0 · w = v = 0 ein Wider-
spruch zu i). Ist ρ ̸= 0, so ist ρ invertierbar, d.h. es gilt w = ρ1 · v, ein Widerspruch
zu i).
ii) ⇒ iii): Sei λ v + µ w = 0 mit λ ̸= 0. Dann gilt v = − λµ w, ein Widerspruch
zu ii). Also muss λ = 0 sein, d.h. 0 · v + µ · w = 0, also µ w = 0. Da w nach
Voraussetzung nicht der Nullvektor ist, muss µ = 0 gelten. Damit haben wir
λ = 0 = µ gezeigt.
iii) ⇒ i): Nehmen wir an, es wäre v = 0. Dann gilt 1 · v + 0 · w = 0 im Wi-
derspruch zu iii). Gibt es ein ρ ∈ R mit w = ρ · v, so ist 1 · w − ρ · v = 0 im
Widerspruch zu iii).
Alle Beweise waren Widerspruchsbeweise. Direkt ausgedrückt haben wir ei-
gentlich folgendes gezeigt: Für v, w ∈ Rn sind äquivalent:
i’) v = 0 oder es gibt ein ρ ∈ R mit w = ρ v.
ii’) w = 0 oder es gibt ein ρ ∈ R mit v = ρ w.
iii’) Es gibt λ , µ ∈ R, nicht beide 0, mit λ v + µ w = 0.
Das führt auf die Definition von linear abhängigen Vektoren. Dieser Begriff ist
beweistechnisch oft einfacher zu handhaben als lineare Unabhängigkeit. Die Im-
plikationen i’) ⇒ ii’) ⇒ iii’) ⇒ i’) kann man direkt ohne Widerspruchsannahmen
zeigen.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_8
86 0 Lineare Gleichungssysteme

2. a) Wir beziehen uns auf die Definition einer Ebene aus 0.3.2. Hier ist die
Äquivalenz zweier Aussagen zu zeigen. Wir beginnen mit der Hinrichtung“.

Wir haben eine Ebene E und damit reelle Zahlen a1 , a2 , a3 , die nicht alle null
sind, sowie ein b ∈ R, so dass
{ }
E = (x1 , x2 , x3 ) ∈ R3 : a1 x1 + a2 x2 + a3 x3 = b .
Die Bezeichnungen seien so gewählt, dass a1 ̸= 0 ist. Nun ist die Existenz von
Vektoren u, v, w zu zeigen, die die in der Aufgabe genannten Eigenschaften ha-
ben. Wir behaupten, dass das für
u = ( ab1 , 0, 0, ) , v = (a2 , −a1 , 0) und w = (a3 , 0, −a1 )
der Fall ist. (Um so etwas behaupten zu können, haben wir natürlich vorher heim-
lich einige Rechnungen angestellt, die aber in der Reinschrift des Beweises nicht
mehr auftauchen. Andere Wahlen von u, v und w führen auch zum Ziel.) Dazu
weisen wir nach, dass diese u, v, w die geforderten Eigenschaften besitzen.
Zuerst zeigen wir E = u + Rv + Rw =: X. Sei (x1 , x2 , x3 ) ∈ E, d.h. nach Defi-
nition a1 x1 + a2 x2 + a3 x3 = b. Dann gilt
( ) ( )
(x1 , x2 , x3 ) = ( ab1 , 0, 0) + − ax21 · (a2 , −a1 , 0) + − ax31 · (a3 , 0, −a1 ) .
Die Wahl λ = − ax21 und µ = − ax31 erfüllt also die Bedingungen. Sie ist zulässig,
weil a1 ̸= 0. Dies zeigt E ⊂ X. Sind umgekehrt λ , µ ∈ R gegeben und (x1 , x2 , x3 ) =
u + λ v + µ w ∈ X, so ist
(x1 , x2 , x3 ) = u + λ v + µ w = ( ab1 , 0, 0) + λ (a2 , −a1 , 0) + µ (a3 , 0, −a1 )
= ( ab1 + λ a2 + µ a3 , −λ a1 , −µ a1 ) ,
woraus
a1 x1 + a2 x2 + a3 x3 = b + λ a1 a2 + µ a1 a3 − λ a1 a2 − µ a1 a3 = b
folgt, also E ⊃ X.
Es ist noch nachzuweisen, dass v = (a2 , −a1 , 0) und w = (a3 , 0, −a1 ) linear
unabhängig sind. Das machen wir mit dem Kriterium iii) (siehe Aufgabe 1),
dem sogenannten Koeffizientenkriterium. Sei
λ · (a2 , −a1 , 0) + µ · (a3 , 0, −a1 ) = (0, 0, 0) .
Das ist gleichbedeutend mit
{ } { }
a2 λ +a3 µ = 0 0=0
−a1 λ =0 , also λ =0 .
−a1 µ = 0 µ =0
Jetzt steht noch die Rückrichtung des Beweises aus. Sei E = u + Rv + Rw
mit linear unabhängigen v, w ∈ V . Dann gilt: für alle (x1 , x2 , x3 ) ∈ E existieren
λ , µ ∈ R mit (x1 , x2 , x3 ) = u + λ · v + µ · w. Die Komponenten der Vektoren u, v, w
0.3 Ebenen und Geraden im Standardraum R3 87

seien (u1 , u2 , u3 ), (v1 , v2 , v3 ) und (w1 , w2 , w3 ). Wir wählen nun


a1 = v2 w3 − v3 w2 , a2 = v3 w1 − v1 w3 , a3 = v1 w2 − v2 w1
und
b = u1 v2 w3 − u1 v3 w2 + u2 v3 w1 − u2 v1 w3 + u3 v1 w2 − u3 v2 w1 .
Das bedeutet gerade a = v × w und b = ⟨u, v × w⟩, vgl. Aufgabe 4 zu Kapitel 5.2.
Die ai sind nicht alle null, wie man sich wie folgt klar machen kann: Wir
nehmen an, die ai wären alle null. Dann gilt für den Fall v1 ̸= 0 ̸= w1 (die anderen
Fälle gehen analog) gerade
v1 v1
v2 = · w2 und v3 = · w3 ,
w1 w1
da a3 = 0 = a2 . Wegen v3 = wv11 · w1 erhalten wir so v = wv11 · w, d.h. v und w wären
linear abhängig, ein Widerspruch.
Mit dieser Wahl gilt a1 x1 + a2 x2 + a3 x3 = b.
b) Eine mögliche Parametrisierung (nach a)) ist
u = (− 13 , 0, 0) , v = (−2, −3, 0) und w = (1, 0, −3) ,
d.h.
E = (− 31 , 0, 0) + R(−2, −3, 0) + R(1, 0, −3) .
c) Nach a) kann man
a1 = 5 · 9 − 6 · 8 = −3 , a2 = 6 · 7 − 4 · 9 = 6 ,
a3 = 4 · 8 − 5 · 7 = −3 und b = 1 · (−3) + 2 · 6 + 3 · (−3) = 0
wählen. Es ist somit
E = {(x1 , x2 , x3 ) ∈ R3 : − 3x1 + 6x2 − 3x3 = 0} .

3. Es ist klar, dass E die Punkte x, y, z enthält, denn:


x = x + 0 · (x − y) + 0 · (x − z)
y = x + (−1) · (x − y) + 0 · (x − z)
z = x + 0 · (x − y) + (−1) · (x − z) .
E ist eine Ebene, sofern x − y und x − z linear unabhängig sind. Das beweisen
wir mit dem Koeffizientenkriterium. Seien λ , µ ∈ R mit
λ · (x − y) + µ · (x − z) = 0 .
Falls µ ̸= 0 ist, gilt z = λ + µ λ
µ · x − µ · y, d.h. z liegt auf der Geraden durch x und
y (siehe Definition 0.2.4). Das ist ein Widerspruch. Ist µ = 0, so vereinfacht sich
die Gleichung zu
λ · (x − y) = 0 ⇔ λ = 0 oder x − y = 0 .
Im letzten Fall lägen x = y und z auf einer Geraden. Also muss λ = µ = 0 sein,
was zu beweisen war.
88 0 Lineare Gleichungssysteme

Gäbe es eine zweite Ebene Ẽ ̸= E, die die Punkte x, y und z enthält, so wäre
nach 0.3.4 der Schnitt von E und Ẽ eine Gerade. Da x, y und z nach Vorausset-
zung nicht auf einer Geraden liegen, kann eine solche Ebene Ẽ nicht existieren,
d.h. E ist eindeutig bestimmt.

0.4 Das Eliminationsverfahren von G AUSS


1. a) Hier liegt ein lineares Gleichungssystem (LGS) vor, das man durch eine
erweiterte Koeffizientenmatrix darstellen kann. Die Zeilenumformungen dieser
Matrix, die wir vornehmen werden, entsprechen Gleichungs- bzw. Äquivalenz-
umformungen eines LGS.  
0 1 2 3 0
 1 2 3 4 0 
 2 3 4 5 0 
3 4 5 6 0
Wir vertauschen die erste und die zweite Zeile, addieren das (−2)-fache der
(neuen) ersten Zeile zur dritten Zeile und das (−3)-fache der (neuen) ersten Zeile
zur vierten Zeile. So erhalten wir in der ersten Spalte eine 1 über lauter Nullen.
Danach verfahren
 wir analog, um die zweite  Spalte
 ”aufzuräumen“.
1 2 3 4 0 1 2 3 4 0
 0 1 2 3 0   0 1 2 3 0 
;  ;
0 −1 −2 −3 0 0 0 0 0 0 
0 −2 −4 −6 0 0 0 0 0 0
Um die Lösungen einfacher ablesen zu können, subtrahieren wir das doppelte
der zweiten Zeile von der ersten.
 Das ergibt 
1 0 −1 −2 0
 0 1 2 3 0 
 0 0 0 0 0 
.
0 0 0 0 0
Die Lösungen haben die Form R(1, −2, 1, 0) + R(2, −3, 0, 1). Es ist auch mög-
lich, die Lösung anders zu parametrisieren; es gibt dafür sogar unendlich viele
Möglichkeiten.
b) Alle Lösungen haben die Form
(0, 0, 1, 0) + R(0, 1, −2, 1) + R(1, 1, 1, 1) ,
wie wir mit folgender Probe nachweisen können:
Wir setzen x1 = µ , x2 = λ + µ , x3 = 1 − 2λ + µ , x4 = λ + µ in das LGS ein. Es
entstehen nur wahre Aussagen.
Die erweiterte Koeffizientenmatrix hat den Rang 2, vgl. 0.4.8, und ebenfalls
nach 0.4.8 ist die Lösungsmenge Lös (A, b) ein affiner Raum der Dimension 2.
0.4 Das Eliminationsverfahren von G AUSS 89

Es kann also keine weiteren Lösungen geben.

9 , 9 , 9 , − 9 ).
2. Die Lösung lautet ( 10 11 17 10

3. Dieses LGS enthält einen reellen Parameter t, der die Anzahl der Lösungen
beeinflusst. Wir verfahren wie
( bisher: )
2 4 2 12t
2 12 7 12t + 7
1 10 6 7t + 8
Wir addieren das (−2)-fache der dritten Zeile zu der ersten bzw. zweiten Zeile
und verlegen die dritte Zeile in die erste Zeile:
( )
1 10 6 7t + 8
; 0 −16 −10 −2t − 16
0 −8 −5 −2t − 9
Nun wird das 2-fache der dritten
( Zeile von der zweiten) subtrahiert:
1 10 6 7t + 8
; 0 8 5 2t + 9
0 0 0 2t + 2
Wir sehen, dass es nur dann eine Lösung geben kann, wenn 2t + 2 = 0 ist, denn
die dritte Gleichung des LGS lautet jetzt 0 · x1 + 0 · x2 + 0 · x3 = 2t + 2. Wenn
t = −1 ist, lautet die Matrix ( )
1 10 6 1
0 8 5 7 .
0 0 0 0
Die Lösungen dieser Matrix haben die Form (−9, 4, −5) + R(2, −5, 8). Zusam-
menfassend können wir festhalten, dass das LGS keine Lösung hat, wenn t ̸= −1
ist. Für t = −1 gibt es unendlich viele Lösungen. Es gibt kein t, für das genau
eine Lösung existiert.
4. Die gemeinsame Lösung der Gleichungen
x+y = 2 I
εx + y = 1 II
entspricht dem Schnittpunkt der beiden durch die Gleichungen I und II beschrie-
benen Geraden im oberen Teil von Bild 0.1.
Nun formen wir das lineare Gleichungssystem der Gleichungen I und II um,
und zwar
a) mit dem maximalen Zeilenpivot 1:
x+y = 2 I
(1 − ε )y = 1 − 2ε e ,
II
b) mit dem Pivot ε :
( ε x1+) y = 1 1 II
1− ε y = 2− ε eI .
90 0 Lineare Gleichungssysteme

Die den Gleichungsystemen entsprechenden Geraden mit Schnittpunkten sieht


man im unteren Teil von Bild 0.1.

Bild 0.1

Nach den Teilen a) und b) gilt


1 − 2ε 2 − ε1
y= = ,
1−ε 1 − ε1
die Werte für y bleiben bei beiden Verfahren also unverändert. Anders verhält es
sich jedoch mit den Werten für x, denn es gilt
a) x = 2 − y , b) x = ε1 (1 − y) .
Wir berechnen dies ausführlich für k = 3, und die untenstehende Tabelle enthält
die Ergebnisse der Berechnungen für k = 3, 8, 9. Man beachte den großen Unter-
schied zwischen den x-Werten für k = 9.
Für k = 3 berechnen wir zunächst exakt
0.998
y= = 0.998 = 0.9989989989 . . . .
0.999
Schneiden wir nun alle Stellen ab der zehnten ab, so erhalten wir
y = 0.998998998 .
Man beachte den Unterschied zur gerundeten Zahl y = 0.998998999.
Mit Hilfe der so bestimmten Zahl y berechnen wir nun x, und zwar zuerst nach
a)
x = 2 − y = 1.001001002 ,
und dann nach b)
x = ε1 (1 − y) = 103 · 0.001001002 = 1.001002000 .
0.4 Das Eliminationsverfahren von G AUSS 91

Der Unterschied zwischen den beiden x-Werten ist hier von der Größenordnung
10−6 = 103 · 10−9 und wächst mit der Zahl k an, wie die folgende Tabelle zeigt:
k a) b)
y = 0.998998998 y = 0.998998998
3
x = 1.001001002 x = 1.001002000
y = 0.999999989 y = 0.999999989
8
x = 1.000000011 x = 1.100000000
y = 0.999999998 y = 0.999999998
9
x = 1.000000002 x = 2.000000000

Moral: Eine ungünstige Wahl des Pivots bewirkt


numerisch: Fehler durch Abrundung werden durch kleine Nenner hochmulti-
pliziert,
geometrisch: es entsteht eine Konfiguration von Geraden mit schleifendem

Schnitt“ (vgl. [Str], Section 1.6).
Hinweis: Mit anderen Rechnern als den unsrigen können unter Umständen an-
dere Ergebnisse erhalten werden. Woran liegt das?
Lösungen der Ergänzungsaufgaben
Wir empfehlen dringend, die Aufgaben ernsthaft zu bearbeiten, bevor eine Lö-
sung nachgeschlagen wird. L bezeichnet die Lösungsmenge.
E1. L = {x = −1 ; y = 2 ; z = 4}
E2. L = {(17, 12, −9) + λ · (−90, 35, 19) : λ ∈ R}
E3. L = {a = −1 ; b = 4 ; c = −9 ; d = 16}
E4. L = {(1, 1, 1, 1) + λ · (14, 22, 0, 1) + µ · (19, 25, −1, 0) : λ , µ ∈ R}
E5. L = {(5, 0, 0, 1, 0) + λ · (−1736, −777, 59, 83, 620) : λ ∈ R}
E6. L = {(5, 4, 3, 2, 1)}
E7. Für t = −2 gilt L = 0.
/ Im Fall t ̸= −2 ist
{ 1 ( 7 )}
L = t+2 · − 3 t − 70
3 , 8, − 3 t + 3
1 62
.

E8. Wenn t ̸= 5 ist, so ist die Lösungsmenge leer. Für t = 5 gilt


L = {(−3, 3, 0) + λ · (1, 1, 1) : λ ∈ R} .
92 0 Lineare Gleichungssysteme

E9. Für 109 + 23a − 3b ̸= 0 gilt L = {(0, 0, 0, 0)}.


Ist 109 + 23a − 3b = 0, so gilt L = {λ · (26, 19, 23, −3) : λ ∈ R}.
E10. Wir müssen drei Fälle unterscheiden. Ist b = −260 und a ̸= − 65
3
, so ist die
Lösungsmenge leer.
Im Fall b = −260 und a = − 65 3
gilt
{( 3 ) }
L = − 65 , −2 65 , 0 + λ · (4, 68, −1) : λ ∈ R .
51

Wenn schließlich b ̸= −260 ist, so lautet die Lösungsmenge


{ 1 }
L = b+260 · (ab − 12, 17ab − 2b − 724, 65a + 3) ,

E11. L = {(2 + i, 1 − i, −3)}


E12. L = {(1, 1 + i, 1 − i, i)}
E13.
L = {λ · (−3 − 53i, −17 + 63i, 0, 4 + 26i)
+µ · (13 + 9i, 9 − 23i, 4 + 26i, 0) : λ , µ ∈ R}

E14.
L = {(1 + i, i, 2i, −3)
+λ · (68 − 3i, 52.5 − 388.5i, −49 − 31i, 43 + 141i) : λ ∈ R}

E15.
L = {(1, i, 2 + i, −3) + λ · (20 − 31i, 16 + 15i, 14 + 38i, 154 − 204i) :
λ ∈ R}

0.5 Geraden und Quadratische Kurven im R2

Lösungen der Ergänzungsaufgaben


E1. a) Die Gleichung lässt sich nach y auflösen, es ergibt sich
2
y = x+8.
3
Dies lässt sich als lineare Funktion auffassen, deren Graph ist eine Gerade.
b) Um jeden Punkt der Gerade notieren zu können, benötigen wir den Ortsvektor
eines Punktes der Gerade als Stützpunkt und müssen dann einen Richtungsvektor
definieren, von dem beliebige Vielfache gewählt werden können.
Diese Ortsvektoren erhalten wir, indem wir beispielsweise x = 0 und x = 1 in
die Gleichung aus Teil a) einsetzen. Damit ergeben sich die Punkte
P(0, 8) und Q(3, 10).
0.5 Geraden und Quadratische Kurven im R2 93

−→
Nehmen wir p = ⃗P als Aufhänger und v = QP = t(3, 2), so ergibt sich die Glei-
chung der Gerade zu ( ) ( )
0 3
y = p+λ ·v = +λ mit λ ∈ R .
8 2
c) Die Schnittpunkte lauten (0, 8) und (−12, 0). Zur Berechnung nutzt man am
bequemsten die in der Aufgabe gegebene Gleichung.
E2. a) Um die Gleichung ~~ in die Form von Gleichung ~ zu überführen,
müssen wir quadratische Ergänzungen vornehmen. Hierzu betrachten wir zuerst
x2 − 4x = (x2 − 4x + 4) − 4 = (x − 2)2 − 4 .
Weiter ergibt sich für y
y2 + 6y = (y2 + 6y + 9) − 9 = (y + 3)2 − 9 .
Damit ergibt sich aus Gleichung ~~
(x − 2)2 − 4 + (y + 3)2 − 9 = 12
und damit
(x − 2)2 + (y + 3)2 = 25 .
Der Mittelpunkt des Kreises ist also M(2, −3), der Radius r = 5.
b) Für einen Kreis vom Radius r um den Ursprung des Koordinatensystems ist
eine Parametrisierung anzusehen durch
x = r · cos φ und y = r · sin φ .
Verschiebt man den Mittelpunkt M des Kreises in M(x0 , y0 ), so gilt
x − x0 = r · cos φ und y − y0 = r · sin φ .
Eine Parametrisierung ist dann gegeben durch
φ 7→ (x0 + r · cos φ , y0 + r · sin φ ) .
Angewendet auf den Kreis aus Teil a) ergibt sich
x − 2 = 5 · cos φ und y + 3 = 5 · sin φ ,
und damit erhält man eine Parametrisierung
φ 7→ (2 + 5 · cos φ , −3 + 5 · sin φ ) mit 0 6 φ < 2π .
E3. a) Für die Schnittpunkte der Ellipse mit der x-Achse gilt y = 0, daraus folgt
x2
= 1 ⇐⇒ x2 = a2 ⇐⇒ x = a oder x = −a .
a2
Die Schnittpunkte mit der x-Achse sind daher (−a, 0) und (a, 0). Analog ergeben
sich die Schnittpunkte (0, −b) und (0, b) mit der y-Achse.
b) Wie in Bild 0.2 zu sehen ist, gilt für die Punkte einer Ellipse mit den Parame-
tern a und b x2 y2
cos2 (φ ) = 2 und sin2 (φ ) = 2
a b
94 0 Lineare Gleichungssysteme

b
M(x, y)
y

φ x
−a x a

−b

Bild 0.2: Schnittstellen mit den Achsen und der Winkel zur Parametrisierung

für geeignetes φ ∈ R, denn es gilt auch


x 2 y2
+ = 1 = cos2 (φ ) + sin2 (φ ).
a2 b2
Daher lässt sich durch
( )
φ 7→ a · cos(φ ), b · sin(φ ) mit 0 6 φ < 2π

eine Parametrisierung der Ellipse definieren.

E4. a) r1 zu bestimmen bedeutet, die Länge der Verbindungsstrecke zwischen


dem Ellipsenpunkt M(x, y) und dem Brennpunkt F1 (−e, 0) zu berechnen. Hier
gilt
r12 = (x + e)2 + y2 . (0.1)

Löst man die Gleichung der Ellipse nach y2 auf, so ergibt sich
b2
y2 = (a2 − x2 ) · . (0.2)
a2
Mit Hilfe von e = a · ε und e2 = a2 − b2 folgt
b2 = a2 − e2 = a2 − a2 · ε 2 = a2 (1 − ε 2 ),

daher gilt
b2
= 1 − ε 2.
a2
0.5 Geraden und Quadratische Kurven im R2 95

Mit Gleichung (0.1) eingesetzt folgt mit Gleichung (0.2)


r12 = (x + e)2 + y2
= x2 + 2e · x + e2 + y2
= x2 + 2 · a · ε · x + a2 · ε 2 + y2
b2
= x2 + 2 · a · ε · x + a2 · ε 2 + (a2 − x2 )
a2
= x2 + 2 · a · ε · x + a2 · ε 2 + (a2 − x2 )(1 − ε 2 )
= a2 + 2 · a · ε · x + x2 · e2 = (a + ε x)2 ,
also die Behauptung (0.1). Analog ergibt sich
r22 = (x − e)2 + y2 , (0.3)
und daraus folgt
r22 = a2 − 2axε + x2 ε 2 = (a − ε x)2 , also Gleichung (0.2).
b) Es gilt mit a) r1 + r2 = a + x · ε + a − x · ε = 2a.
c) An Abbildung 0.2 ist sichtbar, dass d1 = εa + x und d2 = εa − x gilt. Hieraus
folgt
r1 (a + x · ε ) · ε
= = ε.
d1 a+ε ·x
Analog ergibt sich d2 = ε .
r2

d) Durch Rechnung ergibt sich


2x2 + 4x + 3y2 − 12y = 1
⇐⇒ 2x2 + 4x + 2 + 3y2 − 12y + 12 = 1 + 2 + 12
⇐⇒ 2(x + 1)2 + 3(y − 2)2 = 15
(x+1)2 2
⇐⇒ 15 + (y−2)
5 = 1, also a2 = 15
2 und b2 = 5 .
2
Damit handelt es sich um eine Ellipse. Weiter gilt
√ √
√ 10 e 10/4 1 1√
e = a2 − b2 = und ε = = √ =√ = 3.
2 a 15/2 3 3
E5. a) Für den Schnittpunkt mit der y-Achse gilt x = 0. Dann gilt im Fall i)
2
− y3 = 1, womit y2 = −3 folgt. Diese Gleichung besitzt keine reelle Lösung,
daher gibt es keinen Schnittpunkt mit der y-Achse.
2 √
Für ii) gilt y3 = 1 für den Fall x = 0. Hier existieren die Lösungen y = ± 3.
Damit gibt es zwei Schnittpunkte der Hyperbel mit der y-Achse.
Die Berechnungen für Schnittpunkte mit √ den x-Achsen verlaufen ähnlich und
führen im Fall i) zu den Lösungen x = ± 2 und damit zu zwei Schnittpunkten
mit der x-Achse, im Fall ii) hingegen gibt es keinen Schnittpunkt mit der x-
Achse.
96 0 Lineare Gleichungssysteme

b) Es ergibt sich Bild 0.3. Die dort abgebildeten Graphen heißen Hyperbeln.
Hyperbeln bestehen aus zwei Teilen.

y y


√ 3
√ √ √
y=± 3
2 · x2 − 2 y=± 3
· x2 + 2
2
√ √ x x
− 2 2 √
− 3

Bild 0.3: Verschiedene Typen von Hyperbeln

E6. a) An der Zeichnung lässt sich erkennen, dass


r12 = (x + e)2 + y2
gilt. Außerdem ist
b2
y2 = (x2 − a2 ) .
a2
Es gilt e = a · ε und damit
b2 = e2 − a2 = a2 · ε 2 − a2 = a2 (ε 2 − 1).
2
Daraus folgt e2 − 1 = ba2 .
Setzt man die letzten beiden Gleichungen in die erste ein, so folgt
r12 = (x + e)2 + y2
= x2 + 2xe + e2 + y2
= x2 + 2xε + a2 ε 2 + (x2 − a2 )(ε 2 − 1)
= x2 ε 2 + 2aε x + a2
= (x · ε + a)2 .
Analog ergibt sich
r22 = (x − ε )2 + y2 = (x · ε − a)2 .
Die Vorzeichen ergeben sich daraus, dass
x · ε ± a > 0 für Punkte auf der rechten Hyperbelhälfte, und
x · ε ± a < 0 für Punkte auf der linken Hyperbelhälfte
gilt.
0.5 Geraden und Quadratische Kurven im R2 97

b) Nach den Ergebnissen aus Teil a) gilt für Punkte auf der rechten Seite
r1 − r2 = xε + a − (xε − a) = 2a .
Für Punkte auf der linken Seite ergibt sich
r1 − r2 = −(xε + a) + (xε − a) = −2a .
c) Es gilt d1 = x + εa und d2 = x − εa . Daraus folgt
r1 xε + a (xε + a)ε
= = =ε
d1 x + εa xε + a
und r2 xε − a (xε − a)ε
= = =ε.
d2 x − εa xε − a
2
x2
d) Es ist − by2 = 1. Daraus folgt
a2
( 2 )
x b2 ( )
y2 = b2 2 − 1 = 2 x 2 − a2 .
a a
Hiermit ergibt sich
b √
y=± x 2 − a2 .
a
Für die Differenzen der y-Werte der Hyperbel und der Geraden y = ba x folgt
( ) ( ) ( )
b b√ 2 b b√ 2 b b
lim x− x − a2 = lim x− x = lim x− x = 0.
x→∞ a a x→∞ a a x→∞ a a
Es gilt analog für das andere Vorzeichen, hiermit folgt die Behauptung.
Kapitel 1
Grundbegriffe

1.1 Mengen und Abbildungen


1. Die erste Aufgabe enthält Aussagen, deren Beweise argumentativ sehr einfach
sind und am ehesten formell Probleme bereiten könnten. Wir beschränken uns
daher auf den Nachweis der ersten de Morganschen Regel aus
!
d) X r (M1 ∩ M2 ) = (X r M1 ) ∪ (X r M2 )
m ∈ X r (M1 ∩ M2 ) ⇔ m ∈ X ∧ x ∈ / M1 ∩ M2
⇔ m ∈ X ∧ (m ∈ / M1 ∨ m ∈/ M2 )
⇔ (m ∈ X ∧ m ∈ / M1 ) ∨ (m ∈ X ∧ m ∈
/ M2 )
⇔ m ∈ X r M1 ∨ m ∈ X r M2
⇔ m ∈ (X r M1 ) ∪ (X r M2 )

2. Wir erinnern zunächst daran, dass zwischen einelementigen Teilmengen und


Elementen nicht unterschieden wird.
a) Sei y ∈ f (M1 ). Dann existiert ein
x ∈ M1 mit f (x) = y. Also gilt auch x ∈ M2 und damit y = f (x) ∈ f (M2 ).
Für den Beweis der zweiten Aussage wählen wir ein x ∈ f −1 (N1 ). Dann ist
f (x) ∈ N1 ⊂ N2 , also f (x) ∈ N2 und somit x ∈ f −1 (N2 ).
b) Sei x ∈ M. Dann ist f (x) ∈ f (M), also x ∈ f −1 ( f (M)).
Für den Beweis des zweiten Teils sei y ∈ f ( f −1 (N)), d.h. es existiert ein x ∈
−1
f (N) mit y = f (x). Dann muss f (x) ∈ N sein, also y ∈ N.
c) Sei x ∈ f −1 (Y r N). Dann gilt
f (x) ∈ Y r N ⇔ f (x) ∈/N⇔x∈ / f −1 (N) ⇔ x ∈ X r f −1 (N) .
d) Die ersten drei Behauptungen sind relativ einfach nachzuweisen; wir be-
schränken uns daher darauf, f −1 (N1 ∩ N2 ) = f −1 (N1 ) ∩ f −1 (N2 ) zu zeigen. Es
gilt
x ∈ f −1 (N1 ∩ N2 ) ⇔ f (x) ∈ N1 ∩ N2
⇔ f (x) ∈ N1 ∧ f (x) ∈ N2
⇔ x ∈ f −1 (N1 ) ∧ x ∈ f −1 (N2 )
⇔ x ∈ f −1 (N1 ) ∩ f −1 (N2 ) .
Diese Schlussfolgerungen zeigen deutlich die Analogie zwischen den Operato-
ren ∧ ( und“) und ∩ ( geschnitten“).
” ”

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_9
1.1 Mengen und Abbildungen 99

Die vierte Behauptung ist interessant, weil wir uns hier zusätzlich klarmachen
müssen, dass eine echte Teilmenge vorliegen kann. Für den Beweis der Behaup-
tung sei y ∈ f (M1 ∩ M2 ). Dann gibt es ein x ∈ M1 ∩ M2 mit f (x) = y, also y =
f (x) ∈ f (M1 ) und y = f (x) ∈ f (M2 ). Das jedoch bedeutet y ∈ f (M1 ) ∩ f (M2 ).
Ein Beispiel für f (M1 ∩ M2 ) ̸= f (M1 ) ∩ f (M2 ) liefern die Mengen
M1 = {0, 1} und M2 = {2, 3} mit einer Abbildung f , die definiert ist durch
0 7→ a, 1 7→ b, 2 7→ b, 3 7→ c (vgl. Bild 1.1).

Bild 1.1

Hier gilt f (M1 ∩ M2 ) = f (0)


/ = 0,
/ aber
f (M1 ) ∩ f (M2 ) = {a, b} ∩ {b, c} = {b} .
In diesem Beispiel ist das Hindernis für f (M1 ∩ M2 ) = f (M1 ) ∩ f (M2 ) dadurch
gegeben, dass es Elemente x1 ∈ M1 und x2 ∈ M2 geben kann, für die f (x1 ) =
f (x2 ) gilt, d.h. f ist nicht injektiv (vgl. 1.1.4). Dass dies auch das einzige Hin-
dernis ist, zeigt die folgende
Ergänzungsaufgabe: Zeigen Sie, dass für eine Abbildung f : M → N folgende
Bedingungen gleichwertig sind:
i) f ist injektiv,
ii) für je zwei Teilmengen M1 , M2 ⊂ M gilt
f (M1 ) ∩ f (M2 ) = f (M1 ∩ M2 ) .
Wir empfehlen den Beweis dieser Ergänzung als Übung und geben – damit die
Versuchung des Nachsehens nicht zu groß ist – den Beweis erst am Ende dieses
Abschnittes.
3. Unter a) und b) sind hier jeweils zwei Behauptungen zu zeigen. Da die Be-
weise recht ähnlich sind, führen wir nur jeweils einen aus.
a) f und g seien injektiv. Wir zeigen, dass dann auch g ◦ f injektiv ist. Sei
g ◦ f (x1 ) = g ◦ f (x2 ). Für die Injektivität von g ◦ f müssen wir daraus
x1 = x2 folgern. Das funktioniert so: g( f (x1 )) = g( f (x2 )), daraus folgt
f (x1 ) = f (x2 ) weil g injektiv ist, woraus x1 = x2 folgt, weil f injektiv ist.
100 1 Grundbegriffe

b) Sei g ◦ f surjektiv. Wir zeigen, dass dann auch g surjektiv ist. Sei z ∈ Z be-
liebig. Da g ◦ f surjektiv ist, existiert ein x ∈ X mit z = g ◦ f (x) = g( f (x)) und
y := f (x) ∈ Y , also g(y) = z. Damit haben wir gezeigt, dass jedes beliebige z ∈ Z
durch die Abbildung g getroffen“ wird.

4. In dieser Aufgabe sollen einige Abbildungen auf Injektivität bzw. Surjektivität
untersucht werden. Um zu begründen, dass eine Abbildung eine Eigenschaft
nicht besitzt, reicht es aus, ein einziges Gegenbeispiel anzugeben. Wollen wir
jedoch zeigen, dass eine Abbildung z.B. injektiv ist, muss das anhand der Defi-
nition von Injektivität für alle Elemente des Definitionsbereiches nachgewiesen
werden. Eine anschauliche Argumentation ist nicht zulässig, denn die Anschau-
ung ist für Beweiszwecke manchmal zu ungenau; sie liefert aber oft Ideen.
a) f1 ist nicht injektiv, denn f1 (1, 0) = 1 = f1 (0, 1) aber (1, 0) ̸= (0, 1), d.h. zwei
verschiedene Elemente aus der Definitionsmenge werden auf dasselbe Element
der Wertemenge abgebildet.
f1 ist surjektiv, denn für alle r ∈ R ist (r, 0) ∈ R2 und f1 (r, 0) = r + 0 = r; jedes
Element der Bildmenge R wird also getroffen“.

b) f2 ist nicht injektiv, denn f2−1 (0) ist der gesamte Einheitskreis.
f2 ist auch nicht surjektiv, x2 + y2 − 1 > −1 für alle x, y ∈ R.
c) f3 ist injektiv. Das weisen wir wie folgt nach: Sei
(x1 + 2y1 , 2x1 − y1 ) = (x2 + 2y2 , 2x2 − y2 ) .
Wir folgern
x1 + 2y1 = x2 + 2y2 und 2x1 − y1 = 2x2 − y2
⇒ x1 = x2 + 2y2 − 2y1 und 2(x2 + 2y2 − 2y1 ) − y1 = 2x2 − y2
⇒ x1 = x2 + 2y2 − 2y1 und y1 = y2
⇒ x1 = x2 und y1 = y2
⇒ (x1 , y1 ) = (x2 , y2 ) .
f3 ist auch surjektiv. Ein beliebiges Element (λ , µ ) ∈ R2 hat stets ein Urbild,
nämlich ( 15 λ + 25 µ , 25 λ − 51 µ ), wie man durch Nachrechen bestätigen kann. Wenn
wir uns mehr mit der Theorie und Praxis linearer Abbildungen beschäftigt haben,
werden wir eine schnellere Argumentation für diese Aufgabe gefunden haben.
Die Abbildung f3 : R2 → R2 kann(durch die ) Matrix
1 2
2 −1
beschrieben werden, die maximalen Rang hat, was man schon daran sehen
kann, dass die zweite Spalte kein Vielfaches der ersten ist. Quadratische Ma-
trizen maximalen Ranges beschreiben bijektive Abbildungen (vgl. Bemerkung 2
aus 2.5).
1.1 Mengen und Abbildungen 101

5. Die in dieser Aufgabe eingeforderten Beweise kann man mit gutem Gewissen
als klassisch bezeichnen. Man kann nicht verlangen, dass jedem an Mathematik
interessierten Menschen die Ideen zu diesen Beweisen selbst kommen. Wichtig
ist jedoch, dass man die Ideen versteht und kennt. Das spiegelt sich auch in der
Tatsache wider, dass kaum jemand die Beweise jemals ausführlich aufgeschrie-
ben hat. Auch wir werden uns auf die Darstellung der Beweisidee beschränken.
a) Z ist abzählbar (unendlich), da man eine bijektive Abbildung N → Z angeben
kann. Wir geben nur die Abbildung an und lassen den Beweis der Bijektivität aus.
Es sei 0 7→ 0, 2k + 1 7→ k, 2k 7→ −k für k ∈ N. Die ungeraden natürlichen Zahlen
werden also auf die positiven ganzen Zahlen abgebildet; die geraden natürlichen
Zahlen gehen auf die negativen ganzen Zahlen.
Um zu zeigen, dass auch Q abzählbar ist, verwendet man das Erste Cantorsche
Diagonalverfahren. Wir stellen uns alle positiven Brüche als unendlich großes
Schema vor:
1 → 2 3 → 4 ···
1 1 1 1

↙ ↗ ↙
4 ···
2 2 2 2
1 2 3
↓ ↗ ↙ ↗
4 ···
3 3 3 3
1 2 3
↙ ↗
4 ···
4 4 4 4
1 2 3
↓ ↗
4 ···
5 5 5 5
1 2 3
.. .. .. .. . .
. . . . .

Wie durch die Pfeile angedeutet, lassen sich so alle hier aufgeführten Brüche in
eine Reihenfolge bringen. Das ist schon eine Vorform der bijektiven Abbildung
N → Q. Nun streichen wir alle ungekürzten Brüche, damit keine rationalen Zah-
len mehrfach auftreten. Unter den obigen Brüchen müssten wir 22 , 24 , 33 , 42 und 44
streichen. Nach einem systematischen Hinzufügen der Null und der negativen
Brüche (z.B. nach dem Konzept, das wir für den Nachweis der Abzählbarkeit
von Z verwendet haben), erhalten wir so eine bijektive Abbildung N → Q.
b) Der Beweis, dass R nicht abzählbar ist, ist als Zweites Cantorsches Diagonal-
verfahren berühmt geworden. Er wird als Widerspruchsbeweis geführt.
Wir nehmen an, R sei doch abzählbar. Dann ist auch das Intervall ]0; 1[ ab-
zählbar, also muss man eine (unendlich lange) Liste aller reellen Zahlen aus
]0; 1[ angeben können. Wir stellen uns vor, diese Liste sei in Dezimalschreib-
weise gegeben. Ohne Einschränkungen kann man verlangen, dass jeder die-
ser Dezimalbrüche in unendlicher Dezimalbruchentwicklung gegeben ist, indem
102 1 Grundbegriffe

man eventuell noch Nullen anfügt. Die Liste sähe dann etwa so aus:
a1 := 0, a11 a12 a13 a14 . . .
a2 := 0, a21 a22 a23 a24 . . .
a3 := 0, a31 a32 a33 a34 . . .
.. .. .. .. .. ..
. . . . . . ,
wobei ai j ∈ {0, 1, 2, 3, 4, 5, 6, 7, 8, 9} gilt. Nun konstruieren wir eine reelle Zahl z
aus ]0; 1[, die in der Liste nicht vorhanden ist. Das stellt einen Widerspruch zur
Annahme dar, die Liste wäre vollständig.
Es sei
z := 0, b1 b2 b3 b4 b5 . . .
mit bi = 1 falls aii ̸= 1,
bi = 0 falls aii = 1.
z ̸= ai für alle i, weil die Zahlen an der i-ten Dezimale nicht übereinstimmen.
c) Die Argumentation ist ähnlich dem zweiten Cantorschen Diagonalverfahren
(s.o.). Sei M ̸= 0. / Wir zeigen, dass es in diesem Fall keine surjektive Abbildung
M → Abb (M, {0, 1}) geben kann.
Nehmen wir an, es existiert eine solche Abbildung. Diese ordnet jedem
m ∈ M ein eindeutiges Element f ∈ Abb (M, {0, 1}) zu, das wir mit fm bezeich-
nen wollen, d.h. diese Abbildung ist von der Form
φ : M → Abb (M, {0, 1}) , m 7→ fm .
Wir konstruieren nun eine Abbildung g ∈ Abb (M, {0, 1}), die nicht im Bild von
φ liegt. Dazu definieren wir
g : M → {0, 1}
durch
g(m) ̸= fm (m) für alle m ∈ M .
Da {0, 1} mehr als ein Element hat, existiert ein solches g. Nach Konstrukti-
on liegt g nicht im Bild von φ , denn wäre g = fm0 für ein m0 ∈ M, so wäre
g(m0 ) = fm0 (m0 ) im Widerspruch zur Konstruktion von g.
6. Das Mathematikerhotel ist ein weiteres berühmtes Beispiel, mit dem man den
Umgang mit bijektiven Abbildungen üben kann. Es veranschaulicht außerdem
auf amüsante Weise die eigentlich unbegreifliche Unendlichkeit der natürlichen
Zahlen.
1.1 Mengen und Abbildungen 103

a) Trifft ein neuer Gast ein, so zieht jeder Gast von Zimmer N nach N + 1 um.
So wird Zimmer 0 für den Neuankömmling frei.
b) Bei n neuen Gästen ist das Vorgehen ähnlich: Jeder Gast zieht von Zimmer N
nach N + n um. Die Zimmer 0, 1, 2, . . . n − 1 werden frei und können von den neu
eintreffenden Gästen bezogen werden.
c) Treffen N neue Gäste ein, so muss jeder Gast aus Zimmer N nach 2N umzie-
hen. So werden die Zimmer mit den ungeraden Nummern frei.
d) Bei n · N neuen Gästen müssen wieder alle alten Gäste umziehen, diesmal von
Zimmer N nach (n + 1)N.
e) Wenn N · N Neuankömmlinge eintreffen, wird es etwas komplizierter. Zu-
nächst weisen wir jedem Gast ein Element aus N × N zu.
(0, 0) (0, 1) (0, 3) · · · für die alten Gäste
(1, 0) (1, 1) (1, 3) · · · für die Gäste aus Bus 1
(2, 0) (2, 1) (2, 3) · · · für die Gäste aus Bus 2
..
.
(n, 0) (n, 1) (n, 3) · · · für die Gäste aus Bus n
..
.
Nach dem Cantorschen Verfahren (siehe Lösung zu Aufgabe 5a) bekommen nun
die Gäste ihre neuen Zimmer zugewiesen.
Fazit: Schlafe nie in einem Mathematikerhotel, du wirst immer umziehen müs-
sen, sobald neue Gäste eintreffen!
Lösungen der Ergänzungsaufgaben
Ergänzung zu Aufgabe 2 d). Wir zeigen beide Richtungen von
f ist injektiv ⇔ f (M1 ∩ M2 ) = f (M1 ) ∩ f (M2 )
für alle Teilmengen M1 , M2 ⊂ M.
Für die Hinrichtung“ genügt es, die Inklusion

f (M1 ∩ M2 ) ⊃ f (M1 ) ∩ f (M2 )
zu zeigen, da die andere Inklusion nach Aufgabe 2 d) immer gilt. Sei dazu
y ∈ f (M1 ) ∩ f (M2 ). Dann gibt es ein x1 ∈ M1 und ein x2 ∈ M2 mit
y = f (x1 ) = f (x2 ) .
Da f injektiv ist, gilt x1 = x2 , d.h. x1 ∈ M1 ∩ M2 und somit y ∈ f (M1 ∩ M2 ).
Nun zeigen wir die andere Richtung. Hierzu nehmen wir an, dass f nicht in-
jektiv ist. Dann existieren x1 , x2 ∈ M mit x1 ̸= x2 und y = f (x1 ) = f (x2 ). Wählen
wir M1 := {x1 } und M2 := {x2 }, so folgt
f (M1 ∩ M2 ) = 0/ ̸= {y} = f (M1 ) ∩ f (M2 ) .
104 1 Grundbegriffe

E1. Eine Abbildung f : M → N kann als Teilmenge des direkten Produktes


M × N aufgefasst werden (vgl. Abschnitt 1.1.7), und zwar via
Γ f = {(m, f (m)) ∈ M × N : m ∈ M} .
Ist M = {m1 , . . . , mk } eine endliche Menge, so ist eine Abbildung f eindeutig
bestimmt durch
Γ f = {(m1 , f (m1 )) , . . . , (mk , f (mk ))} .
Umgekehrt ist durch jedes k-Tupel
T := {(m1 , ñ1 ) , . . . , (mk , ñk )} ⊂ M×N
eindeutig eine Abbildung bestimmt. Falls N = {n1 , . . . , nl } ebenfalls endlich ist,
so gibt es zur Auswahl jedes ñi ∈ N genau l Möglichkeiten, also insgesamt l k
Stück k-Tupel T , und damit l k Abbildungen f : M → N.

1.2 Gruppen
1. Die Behauptung lautet ab = ba für alle a, b ∈ G. Seien a, b ∈ G beliebig. Nach
der Voraussetzung gilt wegen der Eindeutigkeit von inversen Elementen a = a−1
und b = b−1 sowie ab = (ab)−1 . Mit Hilfe der Bemerkung 1.2.3 c) folgt daraus
ab = (ab)−1 = b−1 a−1 = ba ,
also ab = ba, was zu beweisen war.
2. Wir zeigen gleich, dass alle Gruppen G mit höchstens vier Elementen abelsch
sind: Hat G nur ein Element, ist die Behauptung klar.
Sei G = {e, x}, wobei x das neutrale Element bezeichne. Dann muss nach der
Eigenschaft des neutralen Elements ex = x = xe gelten.
Sei G = {e, x, y}. Das neutrale Element e kommutiert mit jedem anderen Grup-
penelement. Es ist nur zu testen, ob xy = yx gilt. Es gibt drei Möglichkeiten, denn
es gilt xy ∈ {e, x, y}. Ist xy = e, so ist y = x−1 , und daraus folgt xy = yx. Die beiden
anderen Fälle können nicht auftreten, denn gilt
xy = x = xe, so folgt y = e, ein Widerspruch. Den übriggebliebenen Fall kann
man analog zum Widerspruch führen.
Sei G = {e, x, y, z}. e kommutiert mit allen anderen Elementen. Für den Fall
xy ∈ {e, x, y} gilt xy = yx mit demselben Argument wie oben. Analog folgt
yx = xy für yx ∈ {e, x, y}. Damit gilt jedoch xy = z genau dann, wenn yx = z
gilt, d.h. xy = yx auch in diesem Fall.
Ein analoges Argument greift für xz = zx und yz = zy.
1.2 Gruppen 105

Alle Gruppen mit höchstens vier Elementen sind, wie man sich nach den
obigen Ausführungen überlegen kann, bis auf Isomorphie ({e}, +), (Z/2Z, +),
(Z/3Z, +), (Z/4Z, +) und (Z/2Z, +) × (Z/2Z, +).
3. Um zu testen, ob ein Gruppenhomomorphismus vorliegt, müssen wir sorgfäl-
tig beachten, welche Verknüpfungen in der Ausgangsgruppe und welche in der
Bildgruppe gemeint sind.
a) f1 ist ein Gruppenhomomorphismus, denn für alle x, y ∈ G gilt
f1 (x + y) = 2(x + y) = 2x + 2y = f1 (x) + f1 (y) .
b) f2 ist kein Gruppenhomomorphismus, denn f2 (1 + 0) = f2 (1) = 2, aber
f2 (1) + f2 (0) = 2 + 1 = 3.
c) f3 ist ebenfalls kein Gruppenhomomorphismus, weil
f3 (1 + 1) = f3 (2) = 22 + 1 = 5 ,
aber
f3 (1) · f3 (1) = (12 + 1) · (12 + 1) = 4 .
d) Hier sind die Gruppen multiplikativ geschrieben. f4 ist ein Gruppenhomomor-
phismus, denn für alle a + ib, c + id ∈ C∗ gilt:
f4 ((a + ib)(c + id)) = f4 ((ac − bd) + i(ad + bc))

= (ac − bd)2 + (ad + bc)2
√ √ √
= (a2 + b2 ) · (c2 + d 2 ) = a2 + b2 · c2 + d 2
= f4 (a + ib) · f4 (c + id) .
e) f5 ist für (C, +) und (R, +) kein Gruppenhomomorphismus,
√ denn es gilt z.B.
f5 (1) + f5 (i) = 1 + 1 = 2, aber f5 (1 + i) = 2.
f) Bei f6 liegt wieder ein Gruppenhomomorphismus vor. Für alle x, y ∈ Z gilt
nämlich
p−1 ( )
f6 (x + y) − f6 (x) − f6 (y) = (x + y) p − x p − y p = ∑ pi xi y p−i
i=1
p−1 p−1
= ∑ p! i p−i
i!(p−i)! x y = p· ∑ (p−1)! i p−i
i!(p−i)! x y ∈ pZ ,
i=1 i=1 | {z }
∈Z

( )liegen in derselben Restklasse in Z/pZ. Der


d.h. f6 (x + y) und f6 (x) + f6 (y)
Quotient ist ganzzahlig, weil pi ganzzahlig sowie p prim ist und i von 1 bis
p − 1 läuft, woraus i < p und p − i < p für alle hier auftretenden i folgt.
4. Die Behauptungen sind einfach einzusehen; wir verzichten daher auf einen
Beweis. Wir können uns jedoch an dieser Aufgabe klarmachen, dass das neu-
trale Element einer Gruppe auch das neutrale Element jeder Untergruppe ist.
106 1 Grundbegriffe

Zusätzlich sind in einer Untergruppe die inversen Elemente dieselben wie in der
ursprünglichen Gruppe.
Für den Fall, dass A nur ein Element a umfasst, gilt
erz ({a}) = {e, an , (a−1 )n : n ∈ N} ,
wobei e das neutrale Element bezeichnet. Eine solche Gruppe muss nicht not-
wendigerweise unendlich viele Elemente haben, vgl. Aufgabe 6. Eine Gruppe,
die von nur einem Element erzeugt werden kann, heißt zyklisch. Gilt a = e, so
besteht die von {a} erzeugte Untergruppe nur aus dem neutralen Element.
5. Die Diedergruppen ( Di-e-der“ spricht sich dreisilbig) sind ein relativ einfa-

ches Beispiel für eine nicht kommutative Gruppe mit endlich vielen Elementen.
Wir machen uns zunächst einige Zusammenhänge klar, um diese Symmetrie-
gruppen von Vielecken (siehe Bild 1.2 für n = 5 und n = 6) besser zu verstehen.
Für beliebiges n ∈ N gilt d n = e und s2 = e. Stellt man die Gruppenelemente
als Matrizen dar (vgl. 2.4 und 2.5), so gilt
( ) ( )
cos( 2nπ ) − sin( 2nπ ) 1 0
d= und s = .
sin( 2nπ ) cos( 2nπ ) 0 −1
Man kann nachweisen, dass sd = d n−1 s ist. Dies ist an Bild 1.2 zu erkennen, und
mit Hilfe der Multiplikation von Matrizen (vgl. 2.5) sowie der oben angegebenen
Matrizen kann die Behauptung leicht bewiesen werden.

Bild 1.2

Daraus können wir schließen, dass Dn genau 2n Elemente besitzt, nämlich


e, d, d 2 , d 3 , . . . d n−1 , s, sd, sd 2 , sd 3 , . . . sd n−1 . Um eine Verknüpfungstafel ange-
ben zu können, helfen folgende Gleichheiten, die alle aus sd = d n−1 s und d n = e
gefolgert werden können:
{ { j−i
sd j−i für j > i , d für j > i ,
d i ◦ sd j = n+ j−i und sd i ◦ sd j =
sd für j < i . d n+ j−i für j < i .
Für die nach diesen Erkenntnissen also sechselementige Diedergruppe D3 gilt
konkret d 3 = e, s2 = e, d 2 s = sd und ds = sd 2 . Somit lautet die Verknüpfungstafel
1.2 Gruppen 107

(erster Faktor senkrecht) von D3 :


· e d d2 s sd sd 2
e e d d 2 s sd sd 2
d d d2 e sd 2 s sd
d2 d2 e d sd sd 2 s
s s sd sd 2 e d d2
sd sd sd 2 s d 2 e d
sd 2 sd 2 s sd d d2 e

6. a) Wir wissen bereits aus Aufgabe 4, dass die Gruppe G aus Elementen der
Gestalt e, g, g2 , g3 , . . . , g−1 , g−2 , g−3 , . . . bestehen muss. Ist G endlich, so gibt es
ein n ∈ N mit gn = e. Ohne Einschränkungen wählen wir uns das kleinste n mit
dieser Eigenschaft. Dann ist G = {e = gn , g, g2 , g3 , . . . , gn−1 }. Die Gruppentafel
lautet
· e g g2 g3 · · · gn−1
e e g g2 g3 · · · gn−1
g g g 2 g3 · · · e
g2 g2 g3 g4 · · · g
..
g3 g3 g4 · · · .
.. .. .. ..
. . . .
gn−1 gn−1 e g g2 · · · gn−2 .
Ist G unendlich, so gilt gn gm = gn+m für alle n, m ∈ Z. Es ist offensichtlich, dass
eine solche zyklische Gruppe immer kommutativ ist. Entsprechend den Konven-
tionen können wir die Verknüpfung also auch additiv schreiben.
b)∗ Sei G (additiv geschrieben) eine zyklische Gruppe mit erzeugendem Element
g. Nun müssen wir zwei Fälle unterscheiden.
i) Ist g von endlicher Ordnung, so existiert ein n ∈ N mit
ng := g + g + . . . + g = 0 .
| {z }
n-mal
n sei minimal mit dieser Eigenschaft. Dann ist die Abbildung G → Z/nZ,
kg 7→ k + nZ, ein Isomorphismus von Gruppen. Das Nachrechnen der Linea-
rität und Bijektivität lassen wir an dieser Stelle aus.
ii) Ist g von unendlicher Ordnung, d.h. g + g + . . . + g ̸= 0, egal, wie oft man g
addiert, so gilt G ∼
= Z via kg 7→ k.

7. In dieser Aufgabe ist G eine abelsche Gruppe, wurde jedoch multiplikativ


geschrieben. Das sollte uns nicht weiter verwirren.
108 1 Grundbegriffe

Zunächst müssen wir zeigen, dass ∼ eine Äquivalenzrelation ist. Dafür testen
wir die drei Eigenschaften Reflexivität, Symmetrie und Transitivität. Das bereitet
keine weiteren Probleme, denn es gilt:
x ∼ x bedeutet nach Definition xx−1 = e ∈ H .
x ∼ y entspricht xy−1 ∈ H, also (xy−1 )−1 ∈ H, und damit
yx−1 ∈ H, d.h. y ∼ x .
x ∼ y und y ∼ z ist gleichbedeutend mit xy−1 ∈ H und yz−1 ∈ H ,
also xy−1 · yz−1 = xz−1 ∈ H,
das bedeutet gerade x ∼ z.
Damit die Verknüpfung auf Restklassen wohldefiniert ist, muss sie unabhängig
von der Wahl des Repräsentanten aus einer Restklasse sein, mit dem man konkret
rechnet. Seien also x und x′ sowie y und y′ jeweils aus derselben Restklasse, d.h.
x ∼ x′ und y ∼ y′ . Wir zeigen xy ∼ x′ y′ . Nach Voraussetzung gilt xx′ −1 ∈ H und
yy′ −1 ∈ H. Liegt xy(x′ y′ )−1 in H, so ist die Behauptung gezeigt.
−1 ′ −1
xy(x′ y′ )−1 = xyy′ x
G abelsch ′ −1 ′ −1
= |xx{z } yy ∈H.
| {z }
∈H ∈H
G/H wird so zu einer abelschen Gruppe (Gruppeneigenschaften nachprüfen!).
Das neutrale Element ist 1, die Restklasse, die das neutrale Element 1 enthält.
Invers zu x ist x−1 , die Restklasse, die das in G inverse Element zu x enthält. Die
Kommutativität vererbt sich von G auf G/H.
Die abelschen Gruppen Z und nZ schreibt man immer additiv, die Übertra-
gung der hier dargestellten Restklassenbildung könnte also auf Probleme bei
der Übertragung multiplikativ gedachter Sachverhalte auf eine additive Gruppe
stoßen. Deshalb wollen wir noch angeben, dass die Äquivalenzrelation nun
x ∼ y ⇔ x + (−y) ist teilbar durch n
lautet.
8. Die Verknüpfung ◦ wird durch die folgende Tabelle definiert, dabei steht die
erste Zahl“ senkrecht:
” ◦ 1 2 3
1 1 3 2
2 3 2 1
3 2 1 3
Wie an den Zeilen bzw. den Spalten der Tabelle erkennbar ist, sind alle Trans-
lationen a τ und τa surjektiv (sie sind bijektiv), denn in jeder Zeile und in jeder
Spalte kommt jedes Element aus G vor.
1.2 Gruppen 109

Diese Verknüpfung ist nicht assoziativ, denn es gilt


(1 ◦ 1) ◦ 2 = 1 ◦ 2 = 3 ̸= 2 = 1 ◦ 3 = 1 ◦ (1 ◦ 2).
Es handelt sich um keine Gruppe, denn es existiert kein neutrales Element, und
die Verknüpfung ist nicht kommutativ.

Lösungen der Ergänzungsaufgaben


E1. a) Wir wählen ein k ∈ mZ. Hierfür existiert ein l1 ∈ Z mit k = m·l1 . Aufgrund
von n|m existiert ein l2 ∈ Z mit m = n · l2 , und hieraus folgt
k = m · l1 = (n · l2 ) · l1 = n · (l2 · l1 ) ∈ n · Z .
| {z }
∈Z
Da k ∈ mZ beliebig war, folgt mZ ⊂ nZ; die Gruppenstruktur vererbt sich pro-
blemlos.
b) Es sei vorausgeschickt, dass l1 = l2 ⇐⇒ l1 − l2 ∈ nZ gilt.
Die Abbildung φ ist wohldefiniert: Es sei l1 = l2 . Es ist nachzuweisen, dass
n · l1 = n · l2 gilt. Die Voraussetzung ist äquivalent zu l1 − l2 ∈ nZ, d.h. es exis-
m m

tiert ein z ∈ Z mit l1 − l2 = n · z. Dann gilt


n · l1 − n · l2 = n · (l1 − l2 ) = n · nz = m · z ∈ mZ ,
m m m m

was zu beweisen war.


Um zu sehen, dass es sich bei φ um einen Gruppenhomomorphismus handelt,
berechnen wir
φ ((k1 + nZ) + (k2 + nZ)) = φ ((k1 + k2 ) + nZ)
= mn · (k1 + k2 ) + mZ
= ( mn · k1 + mZ) + ( mn · k2 + mZ)
= φ (k1 + nZ) + φ (k2 + nZ),
was zu zeigen war.
Nun ist noch die Injektivität von φ zu zeigen. Da es sich bei φ um einen
Gruppenhomomorphismus handelt, genügt es nachzuweisen, dass
φ −1 (0 + mZ) = 0 + nZ
gilt. Sei also k ∈ Z mit k +mZ = 0+mZ, was gleichbedeutend ist mit k −0 ∈ mZ,
d.h. k ist ein Vielfaches von m. Weil n nun aber ein Teiler von m ist, muss k dann
auch ein Vielfaches von n sein. Das wiederum bedeutet k ∈ nZ, d.h. k + nZ =
0 + nZ. Und das war gerade zu zeigen.
110 1 Grundbegriffe

E2. Die einzigen Untergruppen der ganzen Zahlen sind vom Typ mZ mit m ∈ N.
Dass es sich wirklich um Untergruppen handelt, findet sich in Beispiel c) in
Abschnitt 1.2.6 in [Fi1]. Es bleibt zu zeigen, dass es keine weitere Untergruppen
der ganzen Zahlen gibt, d.h. für jede Untergruppe U von Z ein m ∈ N existiert
mit U = mZ.
U sei eine Untergruppe der ganzen Zahlen. Es existiert ein kleinstes positives
Element m ∈ U. Aufgrund der Bedingungen einer Untergruppe ist mZ ⊂ U. Sei
jetzt u ∈ U. Nach der Division mit Rest existieren ein q ∈ Z und ein 0 6 r < m
mit u = q · m + r. Hieraus folgt r = u − q · m. m war jedoch minimal gewählt,
daraus folgt r = 0, und hiermit gilt u = q · m. Aufgrund von q ∈ Z ist q · m ∈ mZ.
E3. a) Zu zeigen ist
!
U1 ∪U2 ist Untergruppe von G ⇐⇒ U1 ⊆ U2 oder U2 ⊆ U1
⇐“: Für den Fall U1 ⊆ U2 gilt U1 ∪ U2 = U2 , und U2 ist eine Untergruppe von

U. Analog für U2 ⊆ U1 .
⇒“: Wir führen einen Widerspruchsbeweis.

U1 ∪U2 sei eine Untergruppe von G. Gilt
U1 * U2 und U2 * U1 , (1.1)
so existieren ein u1 ∈ U1 r U2 und ein u2 ∈ U2 r U1 . Da u1 , u2 ∈ U1 ∪ U2 und
U1 ∪U2 eine Untergruppe von U ist, folgt u1 u2 ∈ U1 ∪U2 .
Können wir zeigen, dass u1 ∈ U2 oder u2 ∈ U1 liegt, sind wir fertig, denn es
ist ein Widerspruch zu (1.1). Wir beschränken uns o.B.d.A. auf den ersten Fall.
Gilt u1 u2 ∈ U1 . Dann gibt es ein ũ1 ∈ U1 mit ũ1 = u1 u2 . U1 ist eine Gruppe.
Daher existiert ein inverses Element ũ−11 , und es folgt
u−1 −1
1 · (u1 · u2 ) = u1 · ũ1 ∈ U1 .
Hiermit ergibt sich
u2 = e · u2 = (u−1 −1 −1
1 · u1 ) · u2 = u1 · (u1 · u2 ) = u1 · ũ1 ∈ U1 .
Dies ist jedoch ein Widerspruch zur Annahme.
b) Wir führen wieder einen Beweis per Widerspruch. Wäre U1 ∪ U2 = G, so
wäre nach Teil a) U1 ⊆ U2 oder U2 ⊆ U1 . Dann folgt G = U1 ∪ U2 = U1 oder
G = U1 ∪U2 = U2 . Es handelt sich um einen Widerspruch zu U1 ,U2 ̸= G.
c) Für den Fall, dass U1U2 ⊆ G eine Untergruppe ist, gilt für u1 ∈ U1 auch
u−1
1 ∈ U1 , analog für u2 ∈ U2 . Ist U1U2 eine Untergruppe von G, so existiert zu
u1 u2 ∈ U1U2 auch das inverse (u1 u2 )−1 ∈ U1U2 . Andererseits gilt (u1 u2 )−1 =
u−1 −1
2 u1 . Da dies für alle u1 ∈ U1 und alle u2 ∈ U2 gilt, folgt U1U2 = U2U1 .
Angenommen, U1U2 = U2U1 . Da es sich dabei um Untergruppen handelt, ist
das neutrale Element e von G sowohl in U1 als auch in U2 enthalten, d.h. e ∈ U1
1.2 Gruppen 111

und e ∈ U2 . Es folgt e = e · e ∈ U1U2 ⇒ U1U2 ̸= 0./ Aufgrund der Tatsache, dass


G eine Gruppe ist, gilt u1 u2 ∈ G für alle u1 ∈ U1 und alle u2 ∈ U2 . Für u1 ∈ U1
und u2 ∈ U2 gilt (u1 u2 )−1 = u−1 −1
2 u1 . Damit folgt
e = u1 (u1 ) = u1 · e · u−1
−1
u2 · u−1
1 = u1 · | ·u−1
{z 2 } 1
=e
~
= (u1 · u2 )(u−1 u−1 ) = (u1 · u2 ) · (u1 · u2 )−1 ,
| 2 {z 1 } | {z } | {z }
∈U2U1 ∈U1U2 ∈U1U2
wobei an der Stelle ~ die Bedingung U1U2 = U2U1 benutzt wurde. Es existiert
das inverse Element.
E4. Die Gesetzmäßigkeiten lassen sich durch geradlinige Berechnungen nach-
weisen. Symmetrie- und Vollständigkeitseigenschaften der Tabelle können an-
geführt werden.
E5. Für die Gruppe mit zwei Elementen ist es sofort klar. Die einzige Möglich-
keit, eine Gruppe aus drei Elementen zu bilden, wird durch die folgende Tabelle
dargestellt.
· e a b
e e a b
a a b e
b b e a
Wie man sieht, gibt es keine Möglichkeit, Elemente zu vertauschen, ohne dass
eines der Elemente mindestens zweimal in einer Zeile oder Spalte vorkommt. Es
existiert daher keine weitere Gruppe mit drei Elementen. Die Kleinsche Vierer-
gruppe ist (bis auf Vertauschung der Namen der Elemente) die einzige Möglich-
keit, eine Gruppe mit vier Elementen zu bilden. Mit denselben Überlegungen
wie für die Gruppe mit drei Elementen gelangt man zum Ziel.
E6. a) Die vier Drehungen
[ sind ] [ ]
1 2 3 4 1 2 3 4
id : d90 :
[1 2 3 4 ] [2 3 4 1 ]
1 2 3 4 1 2 3 4
d180 : d270 :
3 4 1 2 4 1 2 3
b) Die Tabelle der Verknüpfungen sieht folgendermaßen aus:
◦ id d90 d180 d270
id id d90 d180 d270
d90 d90 d180 d270 id
d180 d180 d270 id d90
d270 d270 id d90 d180
Die Gesetze der Gruppe lassen sich an dieser Verknüpfungs-Tabelle erkennen.
112 1 Grundbegriffe

Die Abgeschlossenheit ist daran zu erkennen, dass die Tabelle nur mit Drehun-
gen gefüllt ist. Das Assoziativgesetz (G1) zeigt sich auch mit Hilfe der Tabelle.
Es liegt an der Symmetrie der Tabelle zur diagonalen Achse durch die Zellen,
welche die Verknüpfungen derselben Drehungen enthält. Hierbei ist zu beden-
ken, dass das Ergebnis der ersten vollbrachten Verknüpfung wiederum mit der
dritten Drehung in derselben Tabelle zu verknüpfen ist.
Das neutrale Element ist die identische Abbildung. An der Tabelle ist zu er-
kennen, dass in der Zeile bzw. Spalte mit id dieselben Drehungen stehen wie in
der zugehörigen Spalte bzw. Zeile.
Jedes Element besitzt genau ein inverses Element, da in jeder Zeile bzw. in
jeder Spalte der Tabelle genau einmal die Identität auftritt. Damit ist auch (G2)
nachgewiesen.
Dass es sich um eine abelsche Gruppe handelt, sieht man an der Symmetrie
der Tabelle zur Diagonalen.
c) Um zu zeigen, dass die Spiegelungen S := {id, sa , sb , cc , sd } keine Gruppe
bilden, reicht ein Gegenbeispiel aus. Wir notieren mit Blick auf Teil d) alle Ele-
mente der Gruppe:
[ ] [ ] [ ]
1 2 3 4 1 2 3 4 1 2 3 4
id : sa : sb :
1 2 3 4 4 3 2 1 2 1 4 3
[ ] [ ]
1 2 3 4 1 2 3 4
sc : sd :
3 2 1 4 1 4 3 2
Die Menge der Spiegelungen ist nicht abgeschlossen, wie sich an den folgenden
Beispielen zeigt: [ ]
1 2 3 4
sa ◦ sb : ∈
/S
[ 3 4 1 2 ]
1 2 3 4
sc ◦ sa : ∈
/S
[ 4 1 2 3 ]
1 2 3 4
sa ◦ sc : ∈
/S
2 3 4 1
Die letzten beiden Beispiele zeigen auch, dass die Verknüpfung nicht abelsch ist.
d) Die Vereinigung der Drehungen und Spiegelungen bildet eine Gruppe. Dies
lässt sich mit Hilfe einer analogen Tabelle wie in Teil b) erkennen. Es zeigte sich
bereits in Aufgabenteil c), dass die Gruppe nicht kommutativ ist. Hinzu kommt,
dass die Menge der Spiegelungen nicht abgeschlossen bzgl. der Operation ist,
wie sich auch bereits in Aufgabenteil c) zeigte.
Die Gruppe D4 ∪ S4 bezeichnet man als Symmetriegruppe, vgl. auch die
Lösung von Aufgabe 5 dieses Abschnitts.
1.2 Gruppen 113

E7. Aus char (K) ̸= 2, 3 folgt 4 ̸= 0 ̸= 27, was im folgenden Beweis verwendet
wird.
a) ⇒ b): Zu zeigen ist
!
4a3 + 27b2 ̸= 0 ⇒ @ c, d ∈ K mit x3 + ax + b = (x + c)2 (x + d) .
Wir zeigen die Negation und nehmen an, es existieren c, d ∈ K mit
x3 + ax + b = (x + c)2 (x + d) .
Es gilt
(x + c)2 (x + d) = (x2 + 2cx + c2 )(x + d)
= x3 + 2cx2 + c2 x + dx2 + 2cdx + c2 d
= x3 + (2c + d)x2 + (c2 + 2cd)x + c2 d .
Dann folgt
x3 + ax + b = x3 + (2c + d)x2 + (c2 + 2cd)x + c2 d .
Durch einen Koeffizientenvergleich ergibt sich
2c + d = 0 ⇒ d = −2c , daraus folgt

a = c2 + 2cd = c2 − 4c2 = −3c2 und b = c2 d = c2 · (−2c) = −2c3 .


Daher gilt
4a3 + 27b2 = 4 · (−3c2 )3 + 27(−2c3 )2
= −108c6 + 108c6 = 0 ,
was zu zeigen war.
a) ⇐ b): Falls 4a3 + 27b2 = 0, so wähle
√ √
a a
c := − und d := −2 · − .
3 3
Da 27b2 > 0, muss a 6 0 sein, d.h. c, d sind definiert. Dann gilt
( √ )2 ( √ )
a a
(x + c)2 (x + d) = x+ − x−2 −
3 3
( √ )( √ )
a a a
= −x + 2 − x −
2
x−2 −
3 3 3
( √ √ ) ( √
a a a a ) 2a a
= x3 + x2 −2 − + 2 − +x 4 · − + −
3 3 3 3 3 3
| {z }
=0
= x3 + ax + |{z}
b .
~
~ folgt hierbei aus 4a3 = −27b2 .
114 1 Grundbegriffe

E8. Wir führen einen Beweis per Induktion über n. Für n = 1 und n = 2 ist die
Behauptung klar.
n → n + 1: Nach dem Fundamentalsatz der Algebra und dem Korollar 1.3.5 in
[Fi1] existieren x1 , x2 , . . . , xn+1 , so dass
xn+1 +an xn +an−1 xn−1 +. . .+a1 x+a0 = (x−x1 )(x−x2 )·. . .·(x−xn )(x−xn+1 ) .
Nach der Induktionsannahme gilt
(x − x1 )(x − x2 ) · . . . · (x − xn ) · x
n ( )
= ∑ (−1)n−i ∑ x j1 x j2 · . . . · x jn−i · xi ,
i=0 16 j1 < j2 <...< jn−i 6n
| {z }
=:bi
womit folgt
( )
(x−x1 )(x−x2 )·. . .·(x−xn )(x−xn+1 ) = (x−x1 )(x−x2 )·. . .·(x−xn ) (x−xn+1 )

( n )
= ∑ bi x i · (x − xn+1 )
i=0
n n
= ∑ bixi+1 − ∑ bixn+1xi
i=0 i=0
n+1 n
= ∑ bi−1x − ∑ bixn+1xi
i
i=1 i=0
n ( )
= x n+1
+ ∑ bi−1 + (−1)bi xn+1 + (−1)b0 xn+1 .
i=1
Durch Einsetzen der bi und Rechnung ergibt sich die Behauptung. Die Vorzei-
chenwechsel ergeben sich dabei durch die Vorzeichen in den bi und den Faktoren
−1 vor den Summanden, die xn+1 enthalten. Speziell ist b0 = (−1)n x1 · . . . · xn .
E9. a) Wir betrachten die Punkte P(xP , yP ), Q(xQ , yQ ) und R(xR , yR ) und begin-
nen mit dem Fall P ̸= Q und xP ̸= xQ . Die Gerade PQ sei gegeben durch
g: y = λx+β .
y −y
Ihre Steigung ist gegeben durch λ = xQQ −xPP .
Bei der Berechnung von xR hilft der Satz von Vieta. R liegt sowohl auf der
Gerade g als auch auf der elliptischen Kurve E. Für die Schnittpunkte von Gerade
und Kurve gilt
(λ x + β )2 = x3 + ax + b
⇐⇒ λ 2 x2 + 2λ β x + β 2 = x3 + ax + b
⇐⇒ x3 − λ 2 x2 + (a − 2λ β )x + b − β 2 = 0 .
1.2 Gruppen 115

Nach dem Satz von Vieta folgt −λ 2 = −(xP + xQ + xR ) . Hiermit ergibt sich
xR = λ 2 − xP − xQ . (1.2)
Da P auf g liegt, gilt yP = λ · xP + β . Löst man die Gleichung nach β auf, so
ergibt sich
β = yP − λ xP . (1.3)
Beim Umgang mit R(xR , yR ) ist zu beachten, dass er nicht auf der Gerade g,
sondern auf der Gerade −g : y = −λ x − β liegt. Damit folgt
β = −yR − λ xR . (1.4)
Aus den Gleichungen (1.3) und (1.4) folgt
yR = −yP + λ (xP − xR ) . (1.5)
Die Gleichungen (1.2) und (1.5) ergeben gemeinsam mit der Bedingung von
λ die Behauptung.
Im Fall P = Q handelt es sich bei g um die Tangente an die Kurve im Punkt
P. Wir betrachten o.B.d.A. den Fall, dass P auf dem√ oberen Teil der Kurve liegt,
der gleich dem Graphen der Funktion f mit f (x) = x3 + ax + b ist. Es gilt

1 3x2 + a
f ′ (x) = · √ und yP = xP2 + axP + b ,
2 x3 + ax + b
da P auf der Kurve liegt. Damit ergibt sich
3x2 + a
λ= P .
2yP
b) (G2) ergibt sich aus den oben notierten Regeln. Das neutrale Element ist der
Punkt im Unendlichen, was sich in der Regel 3 zeigt. Das inverse Element eines
Punkts P ist gegeben durch −P. Anschaulich bedeutet das in der Kurve, dass
die Gerade durch P und −P parallel zu y-Achse verläuft, daher die Kurve noch
einmal im Unendlichen schneidet.
Dass es sich um eine abelsche Gruppe handelt, zeigt sich an den Gleichungen
(1.2) und (1.5), denn nach (1.2) folgt
xR = λ 2 − xP − xQ = λ 2 − xQ − xP ,
d.h. Gleichung (1.5) orientiert sich nicht an Q.
Die Rechnung zu (G1) wird hier nicht notiert. Es handelt sich lediglich um
eine umfangreiche, jedoch tricklose Rechnung, bei der die Indizes nicht durch-
einander geraten dürfen.
E10. Die Lösung verläuft analog zu Aufgabe E4. Hierbei ist auf die Rechnung
modulo“ zu achten.

In Verbindung mit diesen Verfahren lassen sich Nachrichten codieren und deco-
dieren, vgl. [We].
116 1 Grundbegriffe

1.3 Ringe, Körper und Polynome


1. Es gibt bis auf Isomorphie nur jeweils einen Körper mit drei bzw. vier Ele-
menten, wie man durch systematisches Ausprobieren zeigen kann. Mit etwas
Theorie im Hintergrund kann man allgemein zeigen, dass jeder endliche Körper
durch die Anzahl seiner Elemente bis auf Isomorphie eindeutig bestimmt ist
(vgl. [St], §16).
Nach Aufgabe 2 zu Abschnitt 1.2 existiert bis auf Isomorphie nur eine Gruppe
mit drei Elementen, nämlich (Z/3Z, +). Also muss jeder Körper mit drei Ele-
menten bezüglich der Addition dieselbe Form haben. Bezeichnen wir die Ele-
mente in unserem dreielementigen Körper (in weiser Voraussicht) mit 0, 1, 2, so
lautet die Verknüpfungtafel der Addition
+ 0 1 2
0 0 1 2
1 1 2 0
2 2 0 1.
In der Verknüpfungstabelle der Multiplikation sind durch 0 · m = 0 und
1 · m = m für alle m ∈ M bis auf die Verknüpfung 2 · 2 bereits alle Ergebnis-
se klar. Es ist jedoch
2 · 2 = (1 + 1) · 2 = 1 · 2 + 1 · 2 = 2 + 2 = 1 ,
und damit sieht die Verknüpfungstabelle der Multiplikation so aus:
· 0 1 2
0 0 0 0
1 0 1 2
2 0 2 1,
was unsere Bezeichnungsweise nachträglich rechtfertigt, da M nun isomorph zu
(Z/3Z, +, ·) ist.
Beim Körper mit vier Elementen nennen wir die Elemente nun a, b, c, d, um
zu verdeutlichen, dass diese Bezeichnungen völlig unerheblich sind. Der Ring
(Z/4Z, +, ·) ist nicht nullteilerfrei, kommt also als ein Kandidat für einen Kör-
per mit vier Elementen nicht in Frage (vgl. 1.3.4 d)). Wie man nachprüfen kann,
ist die einzige Möglichkeit der Verknüpfungen, die ({a, b, c, d}, +, ·) zu einem
Körper macht, die folgende (vgl. auch Aufgabe 2 zu 1.2):
+ a b c d · a b c d
a a b c d a a a a a
b b a d c b a b c d
c c d a b c a c d b
d d c b a d a d b c
a ist dabei das Nullelement, b die Eins.
1.3 Ringe, Körper und Polynome 117

2. Angenommen, φ : K → K ′ ist nicht injektiv. Dann existieren x, y ∈ K,


x ̸= y, mit φ (x) = φ (y) in K ′ . Somit gilt 0 = φ (x) − φ (y) = φ (x − y) und
x − y ̸= 0, also ist x − y invertierbar. Nun zeigen wir, dass φ dann der Null-
homomorphismus ist. Sei dazu z ∈ K beliebig. Es gilt
φ (z) = φ (z · (x − y) · (x − y)−1 )
= φ (z) · φ (x − y) · φ ((x − y)−1 )
= φ (z) · 0 · φ ((x − y)−1 ) = 0 ,
d.h. φ bildet alle z ∈ K auf null ab.
3. a) Wir wollen an dieser Stelle darauf verzichten, die Ringeigenschaften von
S nachzuweisen. Es sei nur angemerkt, dass die Nullabbildung das Nullelement
ist. Die Abbildung, die jedes Element aus M auf 1 abbildet, ist das Einselement
von S. Die inverse Abbildung bezüglich der Addition einer Abbildung f ist die
Abbildung g mit g(m) = − f (m) für alle m ∈ M.
b) Auch wenn R ein Körper ist, wird S = Abb(M; R) im Allgemeinen nicht zu
einem Körper. Genauer gilt: S ist genau dann ein Körper, wenn R ein Körper ist
und M aus einem Element besteht.
Nehmen wir zunächst an, dass M = {m} aus einem Element besteht. Nach Teil
a) ist die Nullabbildung das Nullelement und die Abbildung f mit
f (m) = 1 das Einselement von S. Ist für f ∈ S das Bild f (m) ∈
/ {0, 1}, so existiert
ein r ∈ R mit r · f (m) = 1. Die Abbildung g ∈ S mit g(m) = r ist dann das inverse
Element zu f in S.
Hat M mehr als ein Element, so definieren wir eine Abbildung f : M → R
durch f (m1 ) = 1 für ein m1 ∈ M und f (m) = 0 für alle m ∈ M r {m1 }. Falls ein
Inverses g ∈ S zu f existierte, so müsste für alle m ∈ M r {m1 }
1 = ( f · g)(m) = f (m) · g(m) = 0 · g(m) = 0
gelten, was wegen 1 ̸= 0 in einem Körper nicht sein kann.
4.∗ Betrachte das Polynom f = t p − t. Für dieses Polynom existiert der Zerfäl-
n

lungskörper K̃ ber Z/pZ (vgl. [Ku1], Satz 7.25).


Wir bezeichnen mit K die Menge der Nullstellen von f in K̃. Für zwei Ele-
mente t1 ,t2 ∈ K r 0 gilt
n −1 n −1 n −1
t1p = 1, t2p = 1, also auch (t1 · t2 ) p = 1.
Die Assoziativität der Verknüpfung ·“ ist klar, neutrales Element ist die 1, und
” n
das zu t ∈ K r 0 inverse Element ist t p −2 . Die Nullstellen ungleich null von
f bilden also bezüglich der Multiplikation bereits eine Gruppe. (Man kann
zeigen, dass diese Gruppe zyklisch ist, vgl. [Ku1], 11.18 und Aufgabe 6 zu
1.2. Standardbeispiele für zyklische Gruppen sind die Einheitswurzelgruppen
118 1 Grundbegriffe

( 2π i
)
eν n , die die komplexen Nullstellen der Polynome t n − 1 sind, vgl.
ν =0,...,n−1
[Ku1], 11.22 b). Da endliche Körper durch die Anzahl ihrer Elemente bis auf
Isomorphie eindeutig bestimmt sind, vgl. die Lösung zu Aufgabe 1 dieses Ab-
schnittes, nennt man die Nullstellen der Polynome t n −1 über beliebigen Körpern
n-te Einheitswurzeln, vgl. [Ku1] §13.)
Für t1 ,t2 ∈ K gilt
pn ( )
(t1 + t2 ) p = ∑ pi t1i t2p −i .
n n n

i=0
( n) ( n)
Für alle 1 6 i 6 pn − 1 ist jedoch p ein Teiler von pi , also gilt pi = 0 für
1 6 i 6 pn − 1 in einem Körper der Charakteristik p. Daraus folgt
n n n (∗)
(t1 + t2 ) p = t1p + t2p = t1 + t2 ,
wobei an der Stelle (∗) die Tatsache t ∈ K benutzt wurde. Analog gilt
n n n
(t1 − t2 ) p = t1p − t2p = t1 − t2 .
Also bilden die Elemente aus K bezüglich der Addition eine Gruppe mit neu-
tralem Element 0. Die Kommutativität der Addition und der Multiplikation folgt
jeweils aus den entsprechenden Gesetzen in K̃. Damit ist K ein Körper.
Es verbleibt zu zeigen, dass f in K̃ keine mehrfachen Nullstellen besitzt.
Null ist sicherlich keine mehrfache Nullstelle von f . Nehmen wir daher an,
f¯ := t p −1 − 1 hätte eine mehrfache Nullstelle λ ̸= 0 in K̃, also
n

f¯ = (t − λ )k · f˜ mit k > 2 .
Dann würde für die formale Ableitung (die ebenso wie in der Analysis ge-
bildet wird, hier jedoch keinerlei analytische (Eigenschaften besitzt;
) daher der
Name formale Ableitung) f¯′ (t) = (t − λ )k−1 k · f˜ + (t − λ ) · f˜′ von f¯ eben-
falls f¯′ (λ ) = 0 folgen. Da f¯ = t p −1 − 1 irreduzibel in (Z/pZ)[t] und daher
n

ein Polynom minimalen Grades mit Nullstelle λ ist, folgt f¯′ = 0 wegen
deg f¯′ < deg f¯. Für unser Polynom f¯ gilt allerdings
f¯′ = (pn − 1)t p −2 = −t p −2 ̸= 0 ,
n n

also kann f keine mehrfache Nullstelle haben.


Insgesamt haben wir gezeigt, dass K ein Körper ist und genau pn Elemente
enthält.
5. Als erstes wollen wir geeignete Bezeichnungen wählen. Es sei
f = an X n + an−1 X n−1 + . . . + a1 X + a0 ,
g = cm X m + cm−1 X m−1 + . . . + c1 X + c0 ,
q = bl X l + bl−1 X l−1 + . . . + b1 X + b0
1.3 Ringe, Körper und Polynome 119

mit
ai , c j ∈ K ⊂ K ′ für 0 6 i 6 n und 0 6 j 6 m
sowie
bi ∈ K ′ für 0 6 i 6 l .
Ohne Einschränkung seien an , cm und bl ungleich null. Damit ist auch festge-
legt, dass n = m + l ist. Die Behauptung lautet nun, dass bi ∈ K gilt für alle i.
Da f = q · g ist, gilt an = bl · cm , also bl = camn ∈ K. Desweiteren ist
an−1 = bl−1 · cm + bl · cm−1 , und somit bl−1 = an−1 −c
cm
m−1 ·bl
∈ K. So können wir
uns weiter die verschiedenen bi entlanghangeln“ und nacheinander zeigen, dass

sie alle in K liegen.
6. Die Behauptung bedeutet geometrisch, dass ein Polynom höchstens n-ten Gra-
des bereits durch n + 1 verschiedene Punkte eindeutig festgelegt ist.
In der Aufgabenstellung wird ein Tipp gegeben, den wir wie folgt nutzen kön-
nen: Wenn wir die gk mit den angegebenen Eigenschaften konstruiert haben, lässt
sich n
f = ∑ yk · gk
k=0
verifizieren, denn für 0 6 i 6 n gilt
n
f (xi ) = ∑ yk · gk (xi) = yi · 1 = yi .
k=0
Die gk konstruieren wir so:
n
1
gk := · ∏ (t − xi ) .
∏ni=0 (xk − xi ) i=0
i̸=k i̸=k
(∏ bezeichnet dabei das Produkt der bezeichneten Elemente, analog zu ∑ für die
Summe.) Hier geht die Bedingung ein, dass alle xi verschieden sein sollen, denn
andernfalls könnte eine Null im Nenner auftreten. Wir rechnen nach:
gk (xi ) = 0 für i ̸= k und
n
1
gk (xk ) = n · ∏ (xk − xi ) = yk .
∏ i=0 k (x − x i ) i=0
i̸=k i̸=k
Damit gelten die an die gk gestellten Bedingungen. Wie oben schon dargelegt,
können wir damit die Existenz (mindestens) eines f ∈ K[t] nachweisen. Wir sol-
len aber zeigen, dass es genau ein solches Polynom gibt. Es ist ja bis jetzt noch
nicht klar, ob man nicht ein anderes Polynom f auf eine andere Weise konstru-
ieren könnte, das ebenfalls die geforderten Eigenschaften besitzt.
120 1 Grundbegriffe

Nehmen wir also an, es gäbe ein weiteres Polynom g ̸= f vom Grad 6 n mit
g(xi ) = yi für i = 0, . . . , n. Dann ist f − g nicht das Nullpolynom, und es gilt
( f − g)(xi ) = 0 für i = 0, . . . , n, d.h. f − g besitzt mindestens n + 1 Nullstellen.
Da jedoch
deg( f − g) 6 max {deg f , deg g} 6 n
ist, kann f − g ̸= 0 nach Korollar 1 zu 1.3.8 maximal n Nullstellen haben, was
einen Widerspruch bedeutet. Also ist g = f , und damit gibt es genau ein f mit
den gewünschten Voraussetzungen.
7. In C[t] besitzen f und g eindeutige Zerlegungen in Linearfaktoren, weil C ein
algebraisch abgeschlossener Körper ist. Die Voraussetzung bedeutet, dass jeder
Linearfaktor, der in f vorkommt, mit mindestens derselben Vielfachheit auch in g
auftritt. In g können auch noch andere Linearfaktoren auftreten. Das umschreibt
gerade die Tatsache, dass g ein Vielfaches von f ist.
In R[t] gibt es keine analoge Aussage, weil nicht jedes Polynom in Linearfak-
toren zerfällt. Ein mögliches Beispiel lautet f = (t − 1)(t 2 + 1) und g = (t − 1)2 .
8. Die Abbildung e ist nach Aufgabe 6 dieses Kapitels surjektiv. (Achtung: Die
Tatsache, dass der Körper endlich ist, geht entscheidend ein. Für unendliche
Körper ist die Behauptung falsch.)
e ist nicht injektiv, da K[t] unendlich viele Elemente enthält, Abb (K, K) je-
doch nur endlich viele. Ersteres folgt daraus, dass t k ∈ K[t] für alle k ∈ N gilt, die
zweite Behauptung gilt nach Ergänzungsaufgabe E1 zu Abschnitt 1.1.
9. a) Es seien
f= ∑ ai1 ···in · t1i1 · . . . · tnin
06i1 ,...,in 6k

und
g= ∑ j
b j1 ··· jn · t11 · . . . · tnjn
06 j1 ,..., jn 6l

gegeben. Durch Hinzufügen von entsprechenden a j1 ··· jn = 0 und bi1 ···in = 0


können wir o.B.d.A. annehmen, dass die Summen über dieselben n-Tupel ge-
bildet werden, d.h.
f= ∑ ai1···in · t1i1 · . . . · tnin
06i1 ,...,in 6k

und
g= ∑ bi1 ···in · t1i1 · . . . · tnin .
06i1 ,...,in 6k

Damit folgt dann sofort


f +g = ∑ (ai1 ···in + bi1 ···in ) · t1i1 · . . . · tnin .
06i1 ,...,in 6k
1.3 Ringe, Körper und Polynome 121

Eine Formel für die Multiplikation können wir angeben durch


f ·g = ∑ ai1···in · b j1··· jn · t1i1+ j1 · . . . · tnin+ jn .
06i1 ,...,in 6k
06 j1 ..., jn 6k
Der Nachweis der Ringeigenschaften von K[t1 , . . . ,tn ] ist Routine; wir lassen ihn
hier aus. Die Kommutativität der Multiplikation ist klar nach der Konstruktion.
Die Nullteilerfreiheit ist deutlich leichter einzusehen, wenn wir die Teile b)
bis d) gelöst haben; wir verschieben ihren Beweis daher auf später.
b) Ist
h(t1 , . . . ,tn ) = ∑ ai1···in · t1i1 · . . . · tnin ,
i1 +...+in =d
so folgt
h(λ t1 , . . . , λ tn ) = ∑ ai1 ···in · (λ t1 )i1 · . . . · (λ tn )in
i1 +...+in =d
= ∑ ai1 ···in · λ i1 · t1i1 · . . . · λ in tnin
i1 +...+in =d
= λ d
∑ ai1 ···in · t1i1 · . . . · tnin
i1 +...+in =d
= λ d · h(t1 , . . . ,tn ) .
c) Es sei f = f(0) + . . . + f(k)
die Zerlegung von f in homogene Komponenten, d.h. die f(i) sind die Summe
aller homogenen Summanden vom Grad i. Für festes t := (t1 , . . . ,tn ) ∈ K n gilt
dann nach Teil b)
f (λ t) = f(0) (t) +λ · f(1) (t) + . . . + λ k · f(k) (t) ∈ K[λ ] .
| {z } | {z } | {z }
∈K ∈K ∈K
Andererseits ist f (λ t) = λ d · f (t) ∈ K[λ ]
|{z}
∈K
nach Voraussetzung. Damit folgt für alle λ ∈ K
g(λ ) := f(0) (t) + λ · f(1) (t) + . . . + λ k · f(k) (t) − λ d · f (t)
( )
= f(0) (t) + . . . + λ d−1 · f(d−1) (t) + λ d · f(d) (t) − f (t)
+λ d+1 · f(d+1) (t) + . . . + λ k · f(k) (t)
= 0.
Da K unendlich viele Elemente besitzt, ist g nach Korollar 1 aus Abschnitt 1.3.8
das Nullpolynom, d.h. f (t) = f(d) (t). Da diese Aussage für beliebiges t ∈ K n
gilt, ist f(d) = f .
122 1 Grundbegriffe

d) Diese Aussage sieht man durch einfaches Ausmultiplizieren.


Wir kommen nun zum Beweis der Nullteilerfreiheit von R := K[t1 , . . . ,tn ] aus
Teil a). Dazu betrachten wir die homogenen Zerlegungen
f = f(0) + . . . + f(k) und g = g(0) + . . . + g(l)
zweier Polynome f und g aus R. Für das Produkt dieser beiden Polynome gilt
k+l
f ·g = ∑ ∑ f(i) · g( j) .
d=0 i+ j=d

Falls f · g = 0 ist, so gilt für alle 0 6 d 6 k + l


∑ f(i) · g( j) = 0 .
i+ j=d
{ } { }
Sei nun d f := min d : f(d) ̸= 0 und dg := min d : g(d) ̸= 0 . Dann gilt
0= ∑ f(i) · g( j) = f(d f ) · g(dg ) = ∑ ci1 ···in t i1 · . . . · t in .
i+ j=d f +dg i1 +...+in =d f +dg

Da in je zwei Summanden mindestens zwei der i j verschieden sind, folgt


ci1 ···in = 0 für alle Tupel (i1 , . . . , in ), und damit entweder f(d f ) = 0 oder g(dg ) = 0
im Widerspruch zur Annahme. Damit ist R nullteilerfrei.
Nach Aufgabe 3 zu Abschnitt 1.5 ist eine rundere Argumentation möglich, da
die t i1 · . . . · t in mit i1 + . . . + in = d eine Basis des Vektorraumes der homogenen
Polynome vom Grad d sind.
10. Die Konstruktion ist analog zu den rationalen Zahlen als Quotientenkörper
der ganzen Zahlen und kann an geeigneter Stelle nachgesehen werden (z.B. in
[E], Kapitel 1, §4, oder [K-P], Kapitel III). Es sollte jedoch nicht unerwähnt blei-
ben, dass der Körper der rationalen Funktionen in der algebraischen Geometrie
eine gewisse Bedeutung hat, da durch ihn Einblicke in die Struktur von algebrai-
schen Varietäten gewonnen werden kann (vgl. z.B. [Ku2], Kapitel IV, §2).
11. Hier sei f (t) = t n + 1 ∈ R[t]. Wegen α0 ̸= 0 kann die Vorzeichenregel von
D ESCARTES angewandt werden, und es gilt
i) N+ ( f ) 6 Z( f ) = 0, d.h. es existieren keine positiven Nullstellen.
ii) {
0 für n gerade,
N− ( f ) 6 Z( f− ) =
1 für n ungerade,
Ist n gerade, dann existiert keine Nullstelle im negativen Bereich. Ist n hin-
gegen ungerade, so existiert keine oder genau eine Nullstelle im negativen
Bereich.
1.3 Ringe, Körper und Polynome 123

Zusammengefasst ergibt sich damit, dass für den Fall n = 2k mit k ∈ N r {0}
das Polynom f keine Nullstelle besitzt. Für n = 2k + 1 mit k ∈ N besitzt f
keine oder genau eine Nullstelle im negativen Bereich.

12. Wir beweisen die Teile a) und b) der Vorzeichenregel für jede Richtung ein-
zeln, um die Schritte deutlich zu machen und auch die kurze mathematische
Schreibweise zu üben.
a) ⇒“: Es sei λi < 0 ∀i = 1, . . . , n. Damit gibt es genau n negative Nullstel-

len. Andererseits existieren maximal n Vorzeichenwechsel der Koffizienten von
f− := f (−t). Damit ergibt sich nach der Vorzeichenregel von D ESCARTES
n = N− ( f ) 6 Z( f− ) 6 n.
Dies bedeutet, dass die Anzahl der Vorzeichenwechsel im Tupel (α0 , α1 , . . . ,
αn−1 , 1) gleich null ist, oder anders formuliert, dass αi > 0 ∀i = 0, . . . , n − 1.
⇐“: Wenn alle Koeffizienten α j größer als oder gleich null sind, ergibt sich
” ~
αi > 0 ∀i = 1, . . . , n ⇒ Z(t) = 0 ⇒ N+ ( f ) = 0,
wobei an der Stelle ~ die Vorzeichenregel von D ESCARTES verwendet wurde.
Damit sind alle Nullstellen negativ.
b) ⇒“: Gilt λi > 0 für alle Nullstellen λi , so ergibt sich analog zu dieser Rich-

tung aus Teil a)
n = N+ ( f ) 6 Z( f ) 6 n.
Damit sind die Vorzeichen der α j alternierend.
⇐“: Ist das Tupel der α j alternierend, so gilt

N− ( f ) 6 Z( f− ) = 0, jedoch N+ ( f ) 6 Z( f ) = n.
Da jedoch die Anzahl der Nullstellen (mit Vielfachheit gezählt) gleich n ist, er-
gibt sich
n 6 N+ ( f ) + N− ( f ) = N+ ( f ) 6 n ⇒ N+ ( f ) = n,
d.h. alle Nullstellen λ1 , . . . , λn sind positiv.
Damit ist die Vorzeichenregel bewiesen.
Lösungen der Ergänzungsaufgaben
E1. a) Zunächst zeigen wir, dass R[t] eine abelsche Gruppe bzgl. der Addition
ist, d.h. die Eigenschaft (R1). Die Gültigkeit des Assoziativgesetzes ist durch
eine Rechnung zu bestätigen. Das neutrale Element des Polynomrings ist gleich
dem neutralen Element des Rings R, in Zeichen 0R[t] = 0R . Das inverse Element
zu einem Element f = a0 + a1t + . . . + ant n ∈ R[t] ist gegeben durch
− f = −a0 − a1t − . . . − ant n .
Ist zusätzlich ein g = b0 + b1t + . . . + bmt m ∈ R[t] gegeben, so gilt
f · g = c0 + c1t + . . . + cn+mt n+m mit ck = ∑ ai b j . ~
i+ j=k
124 1 Grundbegriffe

Da R kommutativ ist, folgt hieraus


ck = ∑ ai b j = ∑ b j ai ,
i+ j=k j+i=k

und damit folgt f · g = g · f .


Die Eigenschaft R1 von R[t] wurde letztlich auf die analoge Eigenschaft von
R zurückgeführt. Ähnlich verläuft dies für die Eigenschaft R2 der Assoziativität
und R3 der Distributivität von R[t].
b) Die Polynome f und g seien wie in Teil a) gegeben. Dann gilt für das Produkt
der Polynome die Formel ~ aus Teil a) und deg f · g = n + m ist gleichbedeutend
mit cn+m ̸= 0. Aufgrund von deg f = n und deg g = m gilt am ̸= 0 und bn ̸= 0,
und da R nullteilerfrei ist, folgt cn+m = am · bn ̸= 0. Damit gilt deg f · g = n + m.
c) Zunächst sei bemerkt, dass deg f · g > deg f + deg g nicht gelten kann. Dies
sieht man unmittelbar an der Formel ~ aus Teil a). Um ein Beispiel für <“ zu

finden, betrachten wir R = Z/4Z = {0̄, 1̄, 2̄, 3̄} und wählen f := 2̄ · t =: g. Dann
folgt
f · g = 2̄ · t · 2̄ · t = 0̄ · t 2 = 0̄ .
Hiermit gilt
deg f · g = −∞ < 2 = deg f + deg g .
Es sei jedoch bemerkt, dass auch in einem Ring mit Nullteilern der Fall =“

auftreten kann, wie das Beispiel f = g = t und f · g = t 2 zeigt.
E2. a) Für alle r ∈ R gilt
r = r2 = (−r)2 = −r .
Daraus folgt r + r = 0.
b) Seien r, s ∈ R. Dann gilt
r2 + s2 = r + s = (r + s)2 = r2 + rs + sr + s2 .
Dies ist äquivalent zu 0 = rs + sr. Mit Hilfe der Aussage aus Teil a) an der Stelle
~ folgt ~
rs = −sr = sr .
Damit folgt die Behauptung.
c) Ist R ein Integritätsring, so gilt 0 ̸= 1. Für alle 0 ̸= r ∈ R gilt
r · (r − 1) = r2 − r = r − r = 0 ⇒ r · (r − 1) = 0 .
Aus r ̸= 0 folgt r − 1 = 0 und hiermit r = 1. Da r beliebig gewählt war, folgt
R = {0; 1}. Bis auf Isomorphie gibt es nur einen Ring und Körper mit zwei Ele-
menten, daher ist R der Körper mit zwei Elementen.
1.3 Ringe, Körper und Polynome 125

E3. a) Zu zeigen ist, dass R× multiplikativ abgeschlossen ist. Dies trifft zu, denn
für a1 , a2 ∈ R× existieren b1 , b2 ∈ R× mit
a1 · b1 = b1 · a1 = a2 · b2 = b2 · a2 = 1 .
Die Gültigkeit des Assoziativgesetzes überträgt sich von R auf R× . Für a1 · a2
folgt mit Hilfe des Assoziativgesetzes in R
(a1 · a2 ) · (b2 · b1 ) = a1 · (a2 · b2 ) · b1 = a1 · b1 = 1 .
| {z }
=1
Damit liegt das Produkt von a1 und a2 in R. Analog lassen sich die anderen Fälle
betrachten.
Es gilt 1 ∈ R× . Die Existenz eines Inversen für Elemente in R× ist erfüllt, da
es sich um Einheiten handelt.
b) Zu zeigen ist für einen kommutativen Ring R:
R× = R r {0} ⇐⇒ R ist Körper
!

Dies deckt sich genau mit einem der Axiome für Körper, vgl. [Fi1], 1.3.3, Be-
dingung (K2).
Für den Fall, dass die Multiplikation nicht das Kommutativgesetz erfüllt, ist
auch das Distributivgesetz lediglich in bestimmter Reihenfolge gültig. Verändert
man jedoch das Distributivgesetz dahingehend, dass für a, b, c ∈ G beliebig
a · (b + c) = a · b + a · c als auch (a + b) · c = a · c + b · c ,
so bezeichnet man die Struktur als Schiefkörper.
E4. a) Seien a1 , a2 , b1 , b2 ∈ Z. Damit gilt a1 + i · b1 ∈ Z[i] und a2 + i · b2 ∈ Z[i].
Summe und Produkt lauten
(a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) und
(a1 + ib1 )(a2 + ib2 ) = (a1 a2 − b1 b2 ) + i(a1 b2 + a2 b1 ) .
Damit lassen sich die Rechenregeln der ganzen Zahlen auf Z[i] übertragen.
b) Es seien z1 = a + ib und
( z2 = c + id. Durch
) eine
( Rechnung ergibt sich)
δ (z1 · z2 ) = δ (a + ib) · (c + id) = δ (ac − bd) + i(ad + bc)
= (ac − bd)2 + (ad + bc)2
= (ac)2 + (bd)2 + (ad)2 + (bc)2 = (a2 + b2 )(c2 + d 2 )
= δ (a + ib) · δ (c + id) = δ (z1 ) · δ (z2 ) ,
was zu zeigen war.
!
c) Behauptung: Es ist Z[i]× = {±1, ±i}.
⊂“: Es sei z ∈ Z[i]× . Dann existiert ein z̃ ∈ Z[i] mit z · z̃ = 1. Mit der Norm-

abbildung folgt dann
1 = δ (1) = δ (z · z̃) = δ (z) · δ (z̃) .
126 1 Grundbegriffe

Der Bildraum von δ besteht aus den natürlichen Zahlen ohne 0, womit
δ (z) = δ (z̃) = 1 folgt, somit z ∈ {±1, ±i}.
⊃“ folgt aus | ± 1| = | ± i| = 1.

E5. Wie sich an der Lösung von Aufgabe 6 a) in Abschnitt 1.2 zeigt, muss R×
bei einer Anzahl von fünf Elementen zyklisch sein, d.h. es gibt ein g ∈ R mit
R× = {1, g, g2 , g3 , g4 }. Die folgende Tabelle zeigt die Verknüpfung:
· 1 g g 2 g3 g4
1 1 g g 2 g3 g4
g g g 2 g3 g4 1
g2 g2 g3 g4 1 g
g3 g3 g4 1 g g2
g4 g4 1 g g2 g3 .
Es gilt (−1)2 = 1, daher ist −1 eine Einheit. In der Diagonale der Tabelle zeigt
sich andererseits, dass lediglich 12 = 1 gilt, und es folgt
−1 = 1 ⇒ 1 + 1 = 0 ⇐⇒ a + a = 0 für alle a ∈ R× .
Wir werden zeigen, dass 1 + g2 + g3 ∈ R× liegt. Sein inverses Element ist 1 +
g + g4 , denn es gilt
(1 + g2 + g3 )(1 + g + g4 ) = 1 + g + g4 + g2 + g3 (1.6)
+g + g3 + g4 + g2 (1.7)
= 1 + (g + g) + (g2 + g2 ) (1.8)
| {z } | {z }
=0 =0
+ (g3 + g3 ) + (g4 + g4 ) (1.9)
| {z } | {z }
=0 =0
= 1. (1.10)
Damit folgt 1+g2 +g3 ∈ R× = {1, g, g2 , g3 , g4 }. Wir zeigen jetzt, dass 1+g2 +g3
nicht gleich einem dieser Elemente in R× sein kann. Damit haben wir einen
Widerspruch dazu, dass 1 + g2 + g3 ∈ R× ist.
1.4 Vektorräume 127

Es ergibt sich in den folgenden Gleichungen (mit der Anwendung der Ergeb-
nisse der Gleichungen (1.6) bis (1.10) an den Stellen ~ sowie 1 = −1):
1. 1 + g2 + g3 = 1 ⇐⇒ g2 + g3 = 0
⇐⇒ g2 (1 + g) = 0
⇐⇒ g2 = 0 ∨ 1 + g = 0
⇐⇒ g = 0 ∨ g = 1 ; Widerspruch
~
2. 1 + g2 + g3 = g ⇐⇒ 1 + g + g4 = g4 (da g · g4 = 1)
⇐⇒ g = 1 ; Widerspruch
3. 1 + g2 + g3 = g2 ⇐⇒ g3 = 1 ; Widerspruch
4. 1 + g2 + g3 = g3 ⇐⇒ 1 + g2 = 0
⇐⇒ g2 = 1 ; Widerspruch
~
2
5. 1 + g + g = g3 4 ⇐⇒ 1 + g + g4 = g ( da g · g4 = 1)
⇐⇒ g4 = 1 ; Widerspruch
Dies bedeutet, dass 1 + g2 + g3 nicht gleich einem der Elemente aus R× sein
kann, womit es keinen Ring mit fünf Elementen geben kann.

1.4 Vektorräume
1. a) Es ist
W := {(x1 , x2 , x3 ) ∈ R : x1 = x2 = 2x3 } ⊂ R3 .
Zu zeigen sind die Eigenschaften UV1, UV2 und UV3 aus 1.4.2.
UV1: (0, 0, 0) ∈ W , also W ̸= 0. /
UV2: Es seien v = (v1 , v2 , v3 ) ∈ W und w = (w1 , w2 , w3 ) ∈ W . Dann gilt
v = (v1 , v1 , 12 v1 ) und w = (w1 , w1 , 21 w1 ) ,
also
v + w = (v1 + w1 , v1 + w1 , 12 (v1 + w1 )) ∈ W .
UV3: Es seien v = (v1 , v1 , v3 ) ∈ W und λ ∈ K. Es ist
v = (v1 , v1 , 12 v1 ) ,
also
λ v = (λ v1 , λ v1 , 12 λ v1 ) ∈ W .
Also ist W ein Untervektorraum
{ von R3 . }
b) Nun ist W := (x1 , x2 ) ∈ R : x12 + x24 = 0 ⊂ R2 . Für alle x ∈ Rr0 gilt x2 > 0
2

und x4 > 0, woraus folgt, dass für alle (x1 , x2 ) ∈ R2 r (0, 0) gerade x12 + x24 > 0
gilt. Also ist W = {(0, 0)}, und die Bedingungen UV1 und UV2 sind trivialer-
weise erfüllt. { }
c) Die Menge W := (µ + λ , λ 2 ) ∈ R2 : λ , µ ∈ R ⊂ R2 ist kein Untervektor-
raum. Zwar gelten UV1 und UV2, jedoch ist UV3 nicht erfüllt. Das sieht man
wie folgt: Für alle λ ∈ R ist λ 2 > 0. Wähle λ = 1, µ = 0, α = −1. Dann ist
α · (µ + λ , λ 2 ) = (−1) · (1, 1) = (−1, −1) ∈
/ W.
128 1 Grundbegriffe

d) In W := { f ∈ Abb(R, R) : f (x) = f (−x) für alle x ∈ R} ist die Nullabbil-


dung sicherlich in W enthalten; das zeigt UV1. Die Eigenschaft UV2 folgt für
f , g ∈ W aus
( f + g)(x) = f (x) + g(x) = f (−x) + g(−x) = ( f + g)(−x) .
UV3 schließlich folgt aus
(λ f )(x) = λ · f (x) = λ · f (−x) = (λ f )(−x)
für alle f ∈ W und alle λ ∈ R. Also ist W {ein Untervektorraum von Abb(R,
} R).
e) Wie bereits in Teil c) gelten für W := (x1 , x2 , x3 ) ∈ R3 : x1 > x2 ⊂ R3 die
Eigenschaften UV1 und UV2, jedoch nicht UV3. Für v = (2, 1, 1) ∈ W und
λ = −1 ∈ R folgt
λ · v = (−2, −1, −1) ∈/ W , da x1 = −2 < −1 = x2 .
W ist also kein Untervektorraum von R3 .
f) Die Menge W := {A ∈ M(m × n; R) : A ist in Zeilenstufenform} ist kein Un-
tervektorraum von M(m × n; R). Anders als in den Aufgabe c) und e) ist hier
bereits die Summe zweier Vektoren im Allgemeinen nicht mehr in W enthalten.
Für ( ) ( )
1 1 −1 1
A= ∈ W und B = ∈W
0 1 0 0
ist ( ) ( ) ( )
1 1 −1 1 0 2
A+B = + =
0 1 0 0 0 1
nicht in W . Also ist W kein Untervektorraum.
2. Die Eigenschaft V1 folgt unmittelbar aus der Tatsache, dass es sich bei V
und W bereits um abelsche Gruppen handelt. Für die Eigenschaft V2 zeigen wir
stellvertretend:
(λ + µ )(v, w) = ((λ + µ )v, (λ + µ )w) = (λ v + µ v, λ w + µ w)
= (λ v, λ w) + (µ v, µ w) = λ (v, w) + µ (v, w) .

3. Es sind die Eigenschaften V1 und V2 zu zeigen. Für V1 sind die Gruppen-


axiome G1 und G2 aus 1.2.2 nachzuweisen. G1 ist dabei klar.
Das Nullelement ist die Abbildung f (x) = 0 für alle x ∈ X, das zur Abbildung
f ∈ Abb(X,V ) negative Element ist gegeben durch g mit g(x) = − f (x) für alle
x ∈ X, wobei für f (x) ∈ V auch − f (x) ∈ V gilt, da V ein Vektorraum ist. Die
Kommutativität von Abb(X,V ) folgt aus der Kommutativität von V als Gruppe,
denn für alle g ∈ Abb(X,V ) gilt
( f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x) für alle x ∈ X .
1.4 Vektorräume 129

Auch die Eigenschaft V2 folgt aus der entsprechenden Eigenschaft für V :


((λ + µ ) · f ) (x) = (λ + µ ) f (x) = λ f (x) + µ f (x) = (λ f )(x) + (µ f )(x)
für alle f , g ∈ Abb(X,V ) und alle x ∈ X.
4. a) Die Sinus-Funktion ist 2π -periodisch, also ist die Menge V nicht leer. Die
Eigenschaften UV1 und UV2 folgen unmittelbar aus der Definition der Addition
und skalaren Multiplikation in Aufgabe 3.
b) Bevor wir die Eigenschaften UV1 bis UV3 nachweisen, müssen wir zeigen,
dass W ⊂ V gilt. Die 2π -Symmetrie von sin(x) und cos(x) ist bekannt. Für ein
beliebiges m ∈ N gilt
sin (m(x + 2π )) = sin (mx + m2π ) = sin ((mx + (m − 1)2π ) + 2π )
= sin (mx + (m − 1)2π ) = . . . = sin(mx) .
Analog zeigt man die 2π -Periodizität von cos(mx).
Nun kommen wir zu den Nachweisen der Eigenschaften UV1 bis UV3. Die
Menge W ist nicht leer. Sind f , g ∈ W , so gibt es Darstellungen
k l
f (x) = ∑ λi cos(ni x) + ∑ µ j sin(m j x) und
i=1 j=1
k̃ l˜
g(x) = ∑ λi cos(ni x) + ∑ µ j sin(m j x) .
i=k+1 j=l+1
Daraus folgt
( f + g)(x) = f (x) + g(x)
k l
= ∑ λi cos(nix) + ∑ µ j sin(m j x)
i=1 j=1
k̃ l˜
+ ∑ λi cos(ni x) + ∑ µ j sin(m j x)
i=k+1 j=l+1

k̃ l˜
= ∑ λi cos(nix) + ∑ µ j sin(m j x) ∈ W .
i=1 j=1
Analog folgt die Eigenschaft UV3.
5. Wir zeigen zunächst, dass die Inklusionen ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ der entsprechenden
Mengen gelten. Dabei werden an einigen Stellen Grenzwertsätze für reelle Zah-
lenfolgen benutzt, die, sofern sie nicht aus Schule oder Studium bekannt sind, in
[Fo1], §4 nachgesehen werden können.
Um die Inklusion ℓ ⊂ ℓ∞ zu zeigen, wählen wir ein (xi )i∈N ∈ ℓ mit Grenzwert
g, d.h. zu jedem ε > 0 gibt es ein N(ε ) ∈ N mit |xi − g| < ε für alle i > N(ε ).
130 1 Grundbegriffe

Speziell für ε = 1 gilt |xi − g| < 1 für alle i > N(1), woraus
|xi | < |g| + 1 für alle i > N(1)
folgt. Wählen wir
( )
M := max |x1 |, . . . , |xN(1)−1 |, |g| + 1 ,
so gilt |xi | 6 M für alle i ∈ N, d.h. (xi )i∈N ist beschränkt.
Es sei nun (xi )i∈N ∈ ℓ2 . Dann existiert ein c ∈ R mit

∑ |xi|2 = c .
i=0
Wegen n n−1
|xn |2 = xn2 = ∑ xi2 − ∑ xi2
i=0 i=0
für beliebiges n ∈ N folgt ( )
n n−1 n n−1
lim x2
n→∞ i
=
n→∞
lim ∑ xi2 − ∑ xi2 = lim
n→∞
lim ∑ xi2
∑ xi2 − n→∞
i=0 i=0 i=0 i=0
= c−c = 0.
Aus limn→∞ xn2 = 0 folgt jedoch sofort limn→∞ xi = 0, d.h. (xi )i∈N ∈ ℓ.
Nun kommen wir zur Inklusion ℓ1 ⊂ ℓ2 . Dazu wählen wir ein (xi )i∈N mit

c := ∑ |xi | ,
i=0
woraus folgt ( )2

2
c = ∑ |xi| .
i=0
Für beliebiges n ∈ N gilt
( )2
n n
∑ |xi| − ∑ |xi |2 = ∑ 2|xi | · |x j | > 0 ,
i=0 i=0 i̸= j
da jeder einzelne Summand auf der rechten Seite größer oder gleich 0 ist. Um-
geformt ergibt dies ( )2
n n
∑ |xi| > ∑ |xi |2
i=0 i=0
für alle n ∈ N, woraus folgt
( )2
n n ∞
2
c = lim
n→∞
∑ |xi| > lim
n→∞
∑ |xi|2 = ∑ |xi|2 .
i=0 i=0 i=0

Insbesondere ist ∑ |xi < ∞ und (xi )i∈N
|2 ∈ ℓ2 .
i=0
1.4 Vektorräume 131

Es sind nun für unsere Mengen die Eigenschaften UV1, UV2 und UV3 zu
zeigen. Für (xi )i∈N mit xi = 0 für alle i ist
(xi )i∈N ∈ ℓ1 ⊂ ℓ2 ⊂ ℓ ⊂ ℓ∞ ,
also sind alle Mengen nicht leer.
Die restlichen Eigenschaften müssen für alle Mengen einzeln gezeigt werden.
Es reicht nicht, die Eigenschaften für eine Obermenge zu zeigen, da überhaupt
nicht klar ist, ob man bei der Addition von Vektoren oder der skalaren Multipli-
kation nicht aus der Menge fällt“; genau das soll ja letztlich erst gezeigt werden.

Für eine beschränkte Folge (xi )i∈N mit Schranke m ∈ R ist λ m eine Schranke
der Folge (λ xi )i∈N , und sind zwei beschränkte Folgen (xi ) und (yi ) mit Schran-
ken m und n gegeben, so ist für alle i ∈ N
|xi + yi | 6 |xi | + |yi | 6 m + n ,
also ist (xi + yi )i∈N beschränkt. Damit ist gezeigt, dass ℓ∞ ein Untervektorraum
von Abb(N, R) ist.
Aus den Grenzwertsätzen folgt, dass ℓ ein Untervektorraum von ℓ∞ ist.
Für (xi )i∈N ∈ ℓ2 und λ ∈ R gilt
∞ ∞
∑ |λ xi|2 = λ 2 · ∑ |xi|2 < ∞ .
i=0 i=0
Sind (xi ), (yi ) ∈ ℓ2 gegeben, so gilt für alle i ∈ N
( )
|xi | · |yi | 6 max |xi |2 , |yi |2 6 |xi |2 + |yi |2 . (∗)
Damit folgt
∞ ∞ ( )
∑ |xi + yi|2 6 ∑ |xi |2 + |yi |2 + 2|xi | · |yi |
i=0 i=0
(∗) ∞( )
6 3 ∑ |xi |2 + |yi |2 < ∞ ,
i=0
also ist (xi + yi )i∈N ∈ ℓ2 .
Zum Schluss folgt für (xi ), (yi ) ∈ ℓ1 und λ ∈ R
∞ ∞
∑ |λ · xi| = |λ | · ∑ |xi| < ∞
i=0 i=0
und ∞ ∞
∑ |xi + yi| 6 ∑ (|xi| + |yi|) < ∞ .
i=0 i=0
Damit ist alles gezeigt.
132 1 Grundbegriffe

6. Jeder Vektorraum enthält einen Untervektorraum, der isomorph zum zugrun-


deliegenden Körper ist. Daher kann eine abzählbar unendliche Teilmenge keine
R-Vektorraumstruktur besitzen, denn R ist überabzählbar, siehe Aufgabe 5 zu
Abschnitt 1.1.
7. Für eine skalare Multiplikation C × R → R mit den gewünschten Eigenschaf-
ten gibt es ein r ∈ R mit i · 1 = r. Dann aber ist nach den Eigenschaften V2 einer
skalaren Multiplikation
−1 = (−1) · 1 = i2 · 1 = i · (i · 1) = i · r = i · 1 · r = r2 .
Da es keine reelle Zahl r mit r2 = −1 gibt, kann die gesuchte skalare Multipli-
kation nicht existieren.
√ √
8. a) Sei a · 1 + b · 2 + c · 3√= 0 mit√a, b, c ∈ Q. Dann gilt
b · 2 + c · 3 = −a ∈ Q , (∗)
also auch √
(−a)2 = 2b2 + 2bc · 6 + 3c2 ∈ Q . (∗∗)
Gilt b ̸= 0 und c ̸= 0, so ist nach (∗∗)
√ (−a)2 − 2b2 − 3c2
6= ∈ Q,
2bc
was ein Widerspruch ist. Ist entweder b ̸= 0 und c = 0 oder c ̸= 0 und b = 0, so
folgt aus (∗) √ √
2 = − ba ∈ Q oder 3 = − ac ∈ Q ,
dies ist ebenfalls ein Widerspruch. √ Also gilt√b = c = 0, woraus nach Gleichung
(∗) auch a = 0 folgt. Damit sind 1, 2 und 3 über Q linear unabhängig.
b) Nein, es gilt 2 · (4, 5, 6)(− (1,
) 2, 3) = (7, 8, 9).
1
c) Es bezeichne fn (x) := n+x . Für eine Summe
k
∑ λi fi = 0 mit λi ∈ R
i=1
wollen wir zeigen, dass alle λi verschwinden müssen. Da die Summe endlich ist,
können wir den Hauptnenner der Brüche bilden. Damit erhält man im Zähler ein
Polynom vom Grad k − 1 in der Variablen x. Ein solches Polynom hat maximal
k − 1 Nullstellen. Da R∗+ aber unendlich viele Elemente besitzt, muss das Poly-
nom im Zähler das Nullpolynom sein. Dies führt aufgrund von x ∈ R∗+ zu einem
Gleichungssystem in den λi , dessen Lösung sich zu λ1 = . . . = λk = 0 ergibt.
d) Ja, sie sind linear unabhängig. Es gibt zwar Verknüpfungen zwischen den
trigonometrischen Funktionen, die aus der Schule bekannten Additionstheore-
me, jedoch sind dies Verknüpfungen im Ring Abb (R, R), nicht im Vektorraum
über den reellen Zahlen. Einen strengen Beweis kann man mit Hilfe von Fourier-
1.4 Vektorräume 133

Zerlegungen der Funktionen sin(nx) und cos(mx) finden, vgl. dazu [Fo3], §12
und Aufgabe 7 zu Abschnitt 5.4.
9. Das zur Aufgabe gehörige lineare Gleichungssystem führt auf die Matrix
( )
1 3 4
3 t 11 .
−1 −4 0
Diese Matrix formen wir mittels elementarer Zeilenumformungen um zu
( ) ( )
1 3 4 1 3 4
; 0 t − 9 −1 ; 0 4t − 37 0 .
0 −1 4 0 −1 4
Die lineare Abhängigkeit der drei Vektoren ist gleichbedeutend damit, dass die
zweite Zeile der Matrix verschwindet, also 4t − 37 = 0 oder t = 37
4.

48 v1 + 48 v2 − 16 v3 . b) w = −v1 + v2 + v3 .
35 37 1
10. a) w =

Lösung der Ergänzungsaufgabe


E1. a) Es sei
x = u + w ∈ (V1 ∩V3 ) + (V2 ∩V3 )
beliebig mit u ∈ V1 ∩V3 und w ∈ V2 ∩V3 . Das bedeutet u ∈ V1 und u ∈ V3 sowie
w ∈ V2 und w ∈ V3 . Dann gilt
x = u + w ∈ V1 +V2 ,
weil u ∈ V1 und w ∈ V2 sowie
x = u + w ∈ V3 ,
weil u, w ∈ V3 und Vektorräume additiv abgeschlossen sind.
b) Die Inklusion (V1 ∩V3 ) + (V2 ∩V3 ) ⊂ (V1 +V2 ) ∩V3 gilt allgemein, wie in Teil
a) gezeigt.
Sei nun V1 ⊂ V2 und x = u + w mit u ∈ V1 , w ∈ V2 und x ∈ V3 . Wegen V1 ⊂ V3
gilt u ∈ V3 und somit w = x − u ∈ V3 , denn Vektorräume sind abgeschlossen
gegenüber Inversen und Addition. Damit ist u ∈ V1 ∩ V3 = V1 und w ∈ V2 ∩ V3 ,
also
x = u + w ∈ (V1 ∩V3 ) + (V2 ∩V3 ).
134 1 Grundbegriffe

c) Ein Beispiel ist gegeben durch drei verschiedene Geraden in R2 , die sich im
Ursprung schneiden, dargestellt in Bild 1.3. In diesem Fall gilt
(V1 ∩V3 ) + (V2 ∩V3 ) = {0} + {0} = {0},
jedoch
(V1 +V2 ) ∩V3 = R2 ∩V3 = V3 .

Bild 1.3

1.5 Basis und Dimension


Basen von Vektorräumen sind im Allgemeinen alles andere als eindeutig. Daher kann im
Folgenden immer nur ein Beispiel für eine Basis gegeben werden. Sollte der/die LeserIn
eine andere gefunden haben: don’t worry. Die ultimative Basis gibt es nicht, auch wenn
die Anzahl der Basiselemente eines endlichdimensionalen Vektorraumes fest ist! Es gibt
höchstens Basen, die besonders einfach sind oder bestimmte Bedingungen erfüllen, wie
zum Beispiel, dass ein gegebener Endomorphismus (siehe 2.1.2) eine besonders einfache
Form hat (siehe 4.3 oder 4.6).
1. a) Eine mögliche Basis, die man wie in Beispiel 2 aus 1.5.7 erhalten kann, ist
w1 = (1, 1, 1, 1, 1) , w2 = (0, 1, 4, −1, 2) , w3 = (0, 0, 9, −7, 0) .
b) Es gelten folgende Zusammenhänge:
v3 = v1 + 2v2 , v5 = −2v2 , v5 = v1 − v3 .
Daraus ergeben sich als mögliche Basen für V aus v1 , . . . , v5 :
{v1 , v2 , v4 } , {v1 , v3 , v4 } , {v1 , v4 , v5 } , {v2 , v3 , v4 } , {v3 , v4 , v5 } .
Die Darstellungen der jeweils nicht in den Basen enthaltenen vi ergeben sich aus
den oben angegebenen Gleichungen.
2. a) Eine Basis ist gegeben durch (v1 , v2 ) mit v1 = (1, 0, 1) und v2 = (0, 1, 0).
b) v1 = (3, −1, −5, 0) und v2 = (−1, 1, 1, −1) bilden eine Basis.
c) Für V = span (t 2 , t 2 + t, t 2 + 1, t 2 + t + 1, t 7 + t 5 ) ist
( )
B = t 2 ,t 2 + 1,t 2 + t,t 7 + t 5
1.5 Basis und Dimension 135

eine Basis. Dazu ist zu zeigen, dass diese Polynome ber R linear unabhängig
sind, und dass V = span B gilt. Die zweite Aussage folgt aus
t 2 + t + 1 = 1 · (t 2 + t) + 1 · (t 2 + 1) − 1 · t 2 .
Die Aussage t 7 + t 5 ∈ / span(t 2 ,t 2 + t,t 2 + 1) folgt durch Betrachtung der Gra-
de der Polynome. Bleibt also die lineare Unabhängigkeit der drei Polynome t 2 ,
t 2 + t, und t 2 + 1 zu zeigen. Seien α , β , γ ∈ R gegeben mit
α · t 2 + β · (t 2 + t) + γ · (t 2 + 1) = 0 .
Zusammenfassen nach Potenzen von t ergibt
(α + β + γ ) · t 2 + β · t + γ · 1 = 0 ,
woraus unmittelbar α = β = γ = 0 folgt.
d) Eine Basis von
V := { f ∈ Abb(R, R) : f (x) = 0 bis auf endlich viele x ∈ R}
ist gegeben durch
( fr ∈ V : fr (x) = δxr ) ,
wobei δ das Kronecker-Symbol {
1 für x = r,
δxr :=
0 sonst.
ist. Die lineare Unabhängigkeit der Funktionen fr ist unmittelbar klar. Ist an-
dererseits f ∈ V gegeben, so existieren x1 , . . . , xn ∈ R, so dass ai := f (xi ) ̸= 0
für alle i = 1, . . . , n und f (x) = 0 für alle x ∈ R r {x1 , . . . , xn }. Dann aber gilt
n
f = ∑ ai · fxi .
i=1
3. Zunächst zeigen wir, dass die Menge W := K[t1 , . . . ,tn ](d) der homogenen Po-
lynome vom Grad d in n Veränderlichen vereinigt mit dem Nullpolynom einen
Untervektorraum des Polynomringes über K in n Veränderlichen bilden. Wegen
0 ∈ W ist W ̸= 0. / Dass für f , g ∈ W auch f + g ∈ W gilt, haben wir in Aufgabe 9
zu Abschnitt 1.3 gezeigt.
Die Aussage für die Multiplikation mit λ ∈ K ist klar; aus den Koeffizienten
ai1 ···in von f = ∑ ai1 ···in t1i1 · . . . · tnin werden Koeffizienten λ ai1 ···in von λ f .
06i1 ,...,in 6k
Nach den obigen Ausführungen und ähnlichen Überlegungen wie in der Lö-
sung zu Aufgabe 2 ist klar, dass die Polynome t1d1 · . . . ·(tndn mit )
d1 + . . . + dn = d
eine Basis von W bilden. Wir behaupten, dass es davon n+d−1 d Stück gibt. Der
Beweis wird per Induktion über n geführt. ( )
Für n = 1 ist W = span (t d ), also ist dimW = 1, was mit 1+d−1
d = 1 überein-
stimmt.
136 1 Grundbegriffe

Für den Induktionschritt nehmen wir an, die Aussage sei für n − 1 Variablen
richtig. Da der Grad von t1d1 · (
. . . · tndn gleich )
d ist, gilt
d
deg t1d1 · . . . · tn−1
n−1
= d − dn .
Aufgrund der Induktionsannahme gilt ( )
n − 1 + d − dn − 1
dimK[t1 , . . . ,tn−1 ](d−dn ) = .
d − dn
Für jedes dn = 0, . . . , d erhält man so die Dimension des Untervektorraumes von
W , der aus homogenen Polynomen mit dem Exponenten dn von tn besteht.
Daraus folgt
d
dimK[t1 , . . . ,tn ](d) = ∑ dimK[t1, . . . ,tn−1](d−dn)
dn =0
d ( ) d ( )
n − 2 + d − dn n−2+k
= ∑ d − dn
= ∑ k
dn =0
( ) k=0
(∗) n+d −1
= .
d
Es bleibt
( der) Beweis(von (∗);
) er wird durch Induktion über d geführt. Für d = 0
gilt n−1+0 0 = 1 = n−1
0 . Für den Induktionsschritt betrachtet man
d ( ) d−1 ( ) ( )
n−2+k n−2+k n−2+d
∑ k
= ∑ k
+
d
k=0 (
k=0 ) ( )
n−2+d n−2+d
= + ,
d −1 d
wobei im letzten Schritt die Induktionsannahme benutzt wurde. Aufgrund der
Beziehungen im ( Pascalschen)Dreieck
( ) (§1) gilt )
(vgl. [Fo1],
n−2+d n−2+d n−1+d
+ = .
d −1 d d
4. Wir zeigen zunächst, dass C endlich erzeugt über R ist. Das folgt leicht aus
Abschnitt 1.3.4, denn C = R × R, und {(1, 0), (0, 1)} ist endliches Erzeugenden-
system, da (a, b) = a · (1, 0) + b · (0, 1) für alle (a, b) ∈ C gilt.
Um einzusehen, dass R nicht endlich erzeugt über Q ist, bemerken wir,
dass Q als Menge abzählbar ist. Wäre R endlich erzeugt über Q, so gäbe es
r1 , . . . , rn ∈ R, so dass für alle r ∈ R eine Darstellung
n
r = ∑ qi ri mit qi ∈ Q
i=1
existiert. Damit wäre R abzählbar, was nach Aufgabe 5 zu Abschnitt 1.1 nicht
der Fall ist.
1.5 Basis und Dimension 137

Mit dem gleichen Argument kann man auch zeigen, dass R nicht abzählbar
erzeugt über Q ist.
( ) ( )
5. Wir beginnen damit, nachzuweisen, dass die (vi , 0) i∈I ∪ (0, w j ) j∈J ein Er-
zeugendensystem sind. Dazu sei (v, w) ∈ V × W gegeben. Wegen v ∈ V gilt
v = ∑′i∈I ai vi , wobei der Strich am Summenzeichen andeuten soll, dass nur
endlich viele der formal unendlich vielen aufgeschriebenen Summanden un-
gleich null sind (vgl. [Fi1], 6.3.2). Wegen w ∈ W gibt es eine Darstellung
w = ∑′j∈J b j w j . Aufgrund der Definitionen der Verknüpfungen in V × W folgt
damit
′ ′
(v, w) = (v, 0) + (0, w) = (∑ ai vi , 0) + (0, ∑ b j w j )
i∈I j∈J
′ ′
= ∑ ai(vi, 0) + ∑ b j (0, w j ) ,
i∈I ( ) j∈J ( )
also wird V ×W von den (vi , 0) i∈I ∪ (0, w j ) j∈J erzeugt.
Die lineare Unabhängigkeit ist wie folgt einzusehen; sei
′ ′
∑ ai(vi, 0) + ∑ b j (0, w j ) = 0
i∈I j∈J
′ ′
⇔ (∑ ai vi , 0) + (0, ∑ b j w j ) = 0
i∈I j∈J
′ ′
⇔ (∑ ai vi , ∑ b j w j ) = 0
i∈I j∈J
′ ′
⇔ ∑ aivi = 0 und ∑ b jw j = 0 .
i∈I j∈J
Da (vi )i∈I eine Basis von V und (w j ) j∈J eine Basis von W ist, folgt ai = 0 für
alle i und b j = 0 für alle j.
6. Die Dimension des von den fünf Vektoren a, b, c, d, e aufgespannten Raumes
ist kleiner oder gleich fünf. Nach dem Austauschsatz in 1.5.4 ist die Dimension
eines Vektorraumes die maximale Anzahl linear unabhängiger Vektoren, in un-
serem Fall höchstens fünf. Also sind die sechs Vektoren v1 , . . . v6 in jedem Falle
linear abhängig.
7. Die Terminologie dieser Aufgabe kommt aus der algebraischen Geometrie,
wo die h(V ) für Primideale in kommutativen Ringen definiert wird und Höhe
heißt (vgl. [Ku2], Kapitel VI, Definition 1.4). Die hier vorgestellte Höhe eines
Vektorraumes ist sozusagen der triviale Fall.
Wir zeigen dimV 6 h(V ) sowie dimV > h(V ), daraus folgt dann die Gleich-
heit.
138 1 Grundbegriffe

Sei m := dimV und {v1 , . . . , vm } eine Basis von V . Setzt man V0 := {0} und
Vi := span(v1 , . . . , vi ) für 1 6 i 6 m, so ist
V0 $ V1 $ . . . $ Vm
eine aufsteigende Kette von Untervektorräumen der Länge dimV , also gilt
dimV 6 h(V ).
Sei andererseits
V0 $ V1 $ . . . $ Vn−1 $ Vn
eine aufsteigende Kette von Untervektorräumen. Für jedes 0 6 i 6 n − 1 ist
Vi $ Vi+1 ein Untervektorraum. Aus Korollar 3 in 1.5.5 folgt daher, dass
dimVi < dimVi+1 für alle 0 6 i 6 n − 1 gilt. Wegen 0 6 dimV0 folgt daraus
i 6 dimVi für alle 0 6 i 6 n . (∗)
Andererseits ist dimVn 6 m, daraus folgt nach Korollar 3
dimVn−i 6 m − i für alle 0 6 i 6 n . (∗∗)
Aus (∗) und (∗∗) ergibt sich
n − i 6 dimVn−i 6 m − i und damit n 6 m.
Da dies für jede mögliche Kette gilt, folgt h(V ) 6 dimV .
8. a) Zu zeigen ist W = spanR ( fk )k∈N . Wir sollten bedenken, dass nicht die linea-
re Hülle über einen Körper, sondern über den Ring der auf R stetigen Funktionen
gebildet wird. Nach 1.6.5 ist W also ein Modul über R. Wir zeigen beide Inklu-
sionen.
Für f = ∑ni=1 f (i) fki ∈ spanR ( fk )k∈N mit f (i) ∈ R (wobei die Indizes zur Un-
terscheidung oben geschrieben wurden) sei k := maxi=1,...,n {ki }. Es gilt dann für
alle x > k n n
f (x) = ∑ f (i) (x) · fki (x) = ∑ f (i) (x) · 0 = 0 .
i=1 i=1
Für die Inklusion W ⊂ spanR ( fk )k∈N genügt es zu zeigen, dass für alle k ∈ N die
Funktion {
0 für x > k,
gk (x) = k − x für k − 1 6 x 6 k,
1 für x 6 k − 1
in spanR ( fk )k∈N liegt. Da für ein f ∈ W ein ρ ∈ R existiert mit f (x) = 0 für alle
x > ρ , wähle ein beliebiges k ∈ N mit k − 1 > ρ , und es gilt
f = f · gk ∈ spanR ( fk )k∈N .
gk ∈ spanR ( fk )k∈N ist einfach zu sehen, denn es gilt gk (x) = fk (x) − fk−1 (x).
1.5 Basis und Dimension 139

b) Wir nehmen das Gegenteil an, also W = spanR (g1 , . . . , gn ) mit gi (x) = 0 für
alle x > ρi . Ohne Beschränkung der Allgemeinheit sei ρn = max(ρi ). Wähle ein
ρ ∈ N mit ρ > ρn . Wegen fρ ∈ W gibt es eine Darstellung fρ = ∑ni=1 f (i) gi mit
f (i) ∈ R. Es gilt dann für alle x ∈ R mit ρ > x > ρn
n n
0 ̸= ρ − x = fρ (x) = ∑ f (i) (x) · gi (x) = ∑ f (i) (x) · 0 = 0 ,
i=1 i=1
ein Widerspruch. Also ist W über R nicht endlich erzeugt.
Andererseits ist R ein Ring mit Einselement f (x) = 1 für alle x ∈ R, somit
wird R über R durch das Einselement erzeugt.
c) Die Familie ( fk )k∈N ist linear abhängig, da W ⊂ R gilt und zum Beispiel
f1 · f0 + (− f0 ) · f1 = 0 in spanR ( fk )k∈N mit f1 , − f0 ̸= 0.
9. Die Inklusion 2Z+3Z ⊂ Z ist klar, da 2Z ⊂ Z und 3Z ⊂ Z gilt. Für die Umkeh-
rung genügt es zu zeigen, dass 1 ∈ 2Z + 3Z. Das jedoch folgt aus
1 = 3 + (−1) · 2.
Es ist 2Z = spanZ (2) $ Z und 3Z = span Z (3) $ Z, aber span Z (2, 3) = Z.
(2,3) ist also unverkürzbares Erzeugendensystem der Länge 2. Andererseits ist
span Z (1) = Z, also (1) ein unverkürzbares Erzeugendensystem der Länge 1.
10. Ist k die Anzahl der Elemente in K und dimK V = n, so ist die Anzahl der
Elemente in V gleich kn . Um dies einzusehen, betrachten wir einen beliebigen
Vektor v ∈ V . Ist v1 , . . . , vn eine Basis von V , so existiert für jedes v ∈ V eine
eindeutige Darstellung
v = λ1 · v1 + . . . + λn · vn
mit λi ∈ K für alle i = 1, . . . , n. Nun definieren wir uns eine Abbildung
φ : V → K n , v 7→ (λ1 , . . . , λn ) .
φ ist wohldefiniert, da die Darstellung für jedes v ∈ V eindeutig ist. Ferner ist φ
bijektiv (φ ist ein Isomorphismus von Vektorräumen, siehe 2.1.2), also besitzt V
genauso viele Elemente wie K n ; dies sind jedoch genau kn .
11.∗ a) Es sei P der Schnitt aller Unterkörper von K. Man sieht einfach ein,
dass P ein Unterkörper von K ist. P ist daher der eindeutig bestimmte kleinste
Unterkörper von K; er heißt Primkörper von K.
P enthält als Unterkörper von K insbesondere die Elemente 0 und 1. Daher
enthält P auch die Elemente ñ, die definiert sind durch
ñ = 1| + .{z . . + 1} , falls n > 0 ,
n−mal
0̃ = 0 ,
f ,
ñ = −(−n) falls n < 0 .
140 1 Grundbegriffe

Man sieht unmittelbar, dass die Abbildung


φ : Z → P , n 7→ ñ ,
ein Ringhomomorphismus ist (vgl. 1.3.2). Da die Charakteristik von P gleich p
ist (P erbt“ diese Eigenschaft selbstverständlich von K), gilt p̃ = 0. Eine einfa-

che Rechnung zeigt nun, dass die Abbildung
φ̃ : Z/pZ → P , a + pZ 7→ ã ,
die das Diagramm
φ -
Z P
a - ã

? 
a + pZ φ̃
?
Z/pZ
kommutativ macht, ein Isomorphismus von Körpern ist. Der Rest der Behaup-
tung ist klar.
Ist die Charakteristik von K gleich null, so kann man mit einem ähnlichen Ar-
gument zeigen, dass der Primkörper von K in diesem Falle gleich Q ist. (Sie-
he hierzu [St], §1.2, wo der Begriff der Charakteristik eines Körpers über den
Primkörper eingeführt wird.)
Insbesondere wird damit gezeigt, dass die Körper Q bzw. Z/pZ die einfachs-

ten“ Körper der Charakteristik 0 bzw. p sind.
b) Ist K ein endlicher Körper mit Charakteristik p > 0, so ist nach a) K ein
Z/pZ-Vektorraum. Wegen |K| < ∞ ist K als Z/pZ-Vektorraum endlichdimen-
sional. Damit folgt die Behauptung aus der Lösung von Aufgabe 10.
12. Für m = 1 ist die Behauptung sofort klar, da eine einzeilige Matrix
A = (ai )16i6n ein Vektor eines K n ist und für A ̸= 0 ein a j ̸= 0 existiert. Für
jedes ai ∈ A gibt es ein λi ∈ K mit ai = λ · a j .
Für m = 2 muss man etwas mehr arbeiten. Ist A = 0, so ist nichts zu zeigen.
Falls ZR (A) = 1, so sind die beiden Zeilen von A = (ai j ) 16i62 linear abhängig.
16 j6n
O.B.d.A. sei die erste Zeile ungleich null. Nach Lemma 1.5.8 ist dann der Spal-
tenrang von A gleich dem Spaltenrang von A, wobei A wie im Lemma definiert
ist. A hat allerdings nur eine Zeile, darauf lässt sich der oben behandelte Fall
anwenden.
1.6 Summen von Vektorräumen∗ 141

Ist schließlich ZR (A) = 2, so sind die beiden Zeilen linear unabhängig.


Dann gibt es a1i , a1 j , a2i , a2 j ∈ A, so dass die Vektoren a1 := (a1i , a1 j ) und
a2 := (a2i , a2 j ) linear unabhängig sind. O.B.d.A. sei a1 j ̸= 0.
Die zu a1 und a2 gehörenden Spaltenvektoren (a1i , a2i ) und (a1 j , a2 j ) sind li-
near unabhängig. Andernfalls gäbe es ein λ ∈ K mit a1i = λ a1 j und
a2i = λ a2 j . Dann aber wären
( ) ( ) a
a1 = λ a1 j , a1 j und a2 = λ a2 j , a2 j , also a21 jj · a1 = a2
im Widerspruch zur linearen Unabhängigkeit von a1 und a2 . Das zeigt
SR (A) > ZR (A). Andererseits gilt ZR (A) > SR (A), da eine Spalte von A als
Vektor in K 2 aufgefasst werden kann und dimK 2 = 2 ist.
13. Zunächst sei vorausgeschickt, dass die Aussage, die in Lemma 1.5.8 für
weggelassene Zeilen- und Spaltenränge formuliert ist, genauso für weggelassene
Spalten- und Zeilenränge gilt. Dies ergibt sich logisch zwingend, wenn man die
transponierte Matrix betrachtet, und bedarf keines weiteren Beweises.
Daher genügt es b) nachzuweisen, um die Gesamtaussage (Zeilenrang = Spal-
tenrang) zu folgern.
Wir betrachten nun eine beliebige Matrix A ∈ M(m × n; K). Nach dem Ba-
sisauswahlsatz 1.5.3 kann man aus den m Zeilen der Matrix A genau r Zei-
len (r 6 m) auswählen, die eine Basis des Zeilenraumes bilden. Laut Lemma
1.5.8 dürfen wir alle anderen Zeilen streichen (dabei entsteht eine neue Matrix
A′ ∈ M(r × n; K)), ohne dass der Spaltenrang verändert wird. Insgesamt gilt also
Spaltenrang (A) = Spaltenrang (A′ ) 6 r = Zeilenrang (A′ ) = Zeilenrang (A),
denn der Spaltenraum von A′ ist ein Unterraum von K r .

1.6 Summen von Vektorräumen∗


1. i) ⇒ iii): Die erste Eigenschaft von iii) ist genau DS1. Eine Darstellung
w1 + . . . + wk = 0 des Nullvektors ist nichts anderes als eine Linearkombina-
tion λ1 w1 + . . . + λk wk = 0 mit λi = 1 für alle i. Falls ein wi ̸= 0 wäre, so stünde
dies im Widerspruch zur Eigenschaft DS2.
iii) ⇒ ii): Wegen V = W1 + . . . + Wk existiert für v ∈ V mindestens eine Dar-
stellung v = w1 + . . . + wk mit wi ∈ Wi für alle i. Für eine zweite Darstellung
v = w̃1 + . . . + w̃k mit w̃i ∈ Wi für alle i gilt
0 = v − v = (w1 − w̃1 ) + . . . + (wk − w̃k ) ,
wobei wi − w̃i ∈ Wi für alle i gilt. Daraus folgt wi − w̃i = 0 für alle i.
142 1 Grundbegriffe

ii) ⇒ iv): Da für jedes v ∈ V eine Darstellung v = w1 + . . . + wk existiert mit


wi ∈ Wi für i = 1, . . . , k, gilt V = W1 + . . . +Wk . Wäre andererseits
k
Wi ∩ ∑ W j ̸= {0}
j=1
j̸=i
für ein i, so gäbe es ein 0 ̸= wi ∈ Wi und w j ∈ W j für j ̸= i mit
k
wi = ∑ wj .
j=1
j̸=i
Wegen Wi ⊂ V wäre das ein Widerspruch zur Eindeutigkeit der Darstellung von
wi .
iv) ⇒ v) folgt unmittelbar.
v) ⇒ i): Die Eigenschaft DS1 ist klar. Seien w1 ∈ W1 , . . . , wk ∈ Wk gegeben und
λ1 w1 + . . . + λk wk = 0. Sind nicht alle λi = 0, so gibt es ein kleinstes i mit λi ̸= 0.
Daraus folgt λi wi = −λi+1 wi+1 − . . . − λk wk , also Wi ∩ (Wi+1 + . . . +Wk ) ̸= {0},
ein Widerspruch.
Ein einfaches Gegenbeispiel zur Äquivalenz zur Bedingung
W1 ∩ . . . ∩Wk = {0} für k > 2 ist für den Fall V = K 3 gegeben durch
W1 = span ((1, 0, 0), (0, 1, 0)) , W2 = span ((0, 1, 0), (0, 0, 1)) ,
W3 = span ((1, 0, 0), (0, 0, 1)) .
Es gilt W1 ∩W2 ∩W3 = {0}, aber (1, 0, 0) ∈ W1 , (0, 1, 0) ∈ W2 , (1, 0, 0) ∈ W3 sind
linear abhängig.
Ein Gegenbeispiel zur Bedingung Wi ∩ W j = {0} für alle i ̸= j ist durch Bild
1.4 gegeben, das sich auf n + 1 eindimensionale Untervektorräume im K n+1 ver-
allgemeinern lässt.

Bild 1.4

2. Ist (v, w) ∈ V ×W , so gilt (v, w) = (v, 0)+(0, w), daraus folgt DS1. Für (v, w) ∈
(V × {0}) ∩ ({0} ×W ) ist v = 0 und w = 0, also (v, w) = (0, 0).
1.6 Summen von Vektorräumen∗ 143

3. a) Die Einheitsmatrix ist symmetrisch, also gilt Sym (n; K) ̸= 0.


/ Für zwei Ma-
trizen A, B ∈ Sym (n; K) und λ ∈ K gilt nach den Rechenregeln für transponierte
Matrizen aus 1.5.8
t
(A + B) = t A + t B = (A + B) und
t
(λ · A) = λ · t A = λ · A ,
also ist Sym (n; K) ⊂ M(n × n; K) ein Untervektorraum.
Eine Basis von Sym (n; K) ist durch die Matrizen
Akl = (ai j ) mit akl = alk = 1 und ai j = 0 sonst
für 1 6 k < l 6 n und
Ak = (ai j ) mit akk = 1 und ai j = 0 sonst
n
n(n+1)
für 1 6 k 6 n gegeben. Davon gibt es ∑ i = 2 Stück, also ist
i=1
n(n + 1)
dim Sym (n; K) = .
2
b) Der Nachweis der Untervektorraumeigenschaften verläuft wie oben, nur dass
an den entsprechenden Stellen das + durch ein − ersetzt werden muss.
Die Matrizen
Akl = (ai j ) mit akl = 1 = −alk und ai j = 0 sonst
für 1 6 k < l 6 n bilden eine Basis von Alt (n; K). (Achtung: Man beachte, dass
im Gegensatz zu den symmetrischen Matrizen bei den schiefsymmentrischen
Matrizen in der Diagonalen keine Einträge ungleich null stehen dürfen. Dies
macht den Unterschied in den Dimensionen der Vektorräume aus.) Daher gilt
(n − 1)n
dim Alt (n; K) = .
2
c) Für die Matrizen As und Aa gilt
( )
t
As = t 12 (A + t A) = 21 · t (A + t A)
= 21 (t A + t (t A)) = 12 (t A + A) = As ,
( )
t
Aa = t 21 (A − t A) = 21 · t (A − t A)
= 21 (t A − t (t A)) = 12 (t A − A)
= − 12 (A − t A) = −Aa
und
As + Aa = 21 (A + t A) + 12 (A − t A) = 21 A + 12 t A + 12 A − 12 t A = A .
d) Für jedes A ∈ M(n × n; K) ist A = As + Aa , also gilt
M(n × n; K) = Sym (n; K) + Alt (n; K) .
144 1 Grundbegriffe

Nach den Ergebnissen aus Teil b) und c) folgt


n(n + 1) n(n − 1)
dim M(n × n; K) = n2 = +
2 2
= dim Sym(n; K) + dim Alt(n; K) ,
und daraus folgt die Behauptung.

Lösungen der Ergänzungsaufgabe


E1. a) Bei der Teilmenge U1 handelt es sich um einen Untervektorraum, da die
reellen Zahlen ein Körper sind. Für den Fall U2 ergibt sich folgendes:
UV1: t (0, . . . , 0) ∈ U2 , also gilt U2 ̸= 0.
/
UV2: Für v1 = t (r1 , . . . , rn ) ∈ U2 und v2 = t (s1 , . . . , sn ) ∈ U2 gilt
v1 + v2 = t (r1 + s1 , . . . , rn + sn ).
Wir rechnen n n n
∑ (ri + si) = ∑ ri + ∑ si = 0 + 0 = 0 ,
i=1 i=1 i=1
also gilt v1 + v2 ∈ U2 .
UV3: Es seien v = t (r1 , . . . , rn ) ∈ U2 und λ ∈ R. Dann gilt
λ · v = t (λ r1 , . . . , λ rn ) ,
und es folgt n n
∑ λ ri = λ ∑ ri = λ · 0 = 0 ,
i=1 i=1
das bedeutet λ v ∈ U2 . Somit ist U2 ein Untervektorraum von Rn .
b) Wir behaupten dimU2 = n − 1 und weisen nach, dass folgende Vektoren
v1 , . . . , vn−1 eine Basis von U2 bilden:
vi = t (0, . . . , 0, 1, −1, 0, . . . , 0) ,
wobei 1 an der Stelle i und −1 an der Stelle i + 1 steht. Die lineare Unabhängig-
keit der vi kann man so nachweisen: Wir schreiben die vi als Spalten in eine
Matrix, dies ergibt  
1 0 ··· 0
 −1 .
.. 
.
 1 .. 
 . 
 0 −1 . . 0 
 
 .. . .
.
..
. 
. 1
0 ··· 0 −1
mit n − 1 Spalten und n Zeilen. Offensichtlich hat diese Matrix Rang n − 1, d.h.
der Untervektorraum U2 , in dem diese Spaltenvektoren linear unabhängig sind,
hat mindestens Dimension n − 1. Dass dieser Untervektorraum nicht Dimension
1.6 Summen von Vektorräumen∗ 145

n haben kann, ist schnell einzusehen, handelt es sich bei U2 doch sicherlich nicht
um den ganzen Rn . Dann muss dimU2 = n − 1 sein, was wir beweisen wollten.
Die Tatsache, dass die vi , 1 6 i 6 n − 1, ein Erzeugendensystem von U2 bilden,
kann aber auch nachgerechnet werden: Es sei v = (r1 , . . . , rn ) ∈ U2 gewählt, d.h.
∑ni=1 ri = 0. Indem im zweiten Eintrag des Vektors r1 addiert und subtrahiert
wird, ändert sich der Gesamtwert des Vektors nicht, und es ergibt sich
v = (r1 , r2 , . . . , rn ) = (r1 , −r1 + r1 + r2 , r3 , . . . , rn )
= (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , r3 , . . . , rn ) .
Wiederholt man diesen Schritt an der nächsten Stelle, so erhält man
v = (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , −r1 − r2 , 0, . . . , 0)
+(0, 0, r1 + r2 + r3 , 0, . . . , 0) .
Wird dieser Schritt insgesamt (n − 1)-mal durchgeführt (was genaugenommen
eine Induktion ist), so folgt
v = (r1 , −r1 , 0, . . . , 0) + (0, r1 + r2 , −r1 − r2 , 0, . . . , 0) + . . .
+(0, . . . , 0, r1 + . . . + rn−1 , −r1 − . . . − rn−1 )
+(0, . . . , 0, r1 + . . . + rn )
1 2 n−1
= ∑ rr v1 + ∑ riv2 + . . . + ∑ rivn−1
i=1 i=1 i=1
n−1 j
= ∑ ∑ riv j .
j=1 i=1
Da v ∈ U2 gilt, ist der letzte Summand gleich dem Nullvektor, und durch Heraus-
ziehen der Skalare aus den Vektoren ist somit gezeigt, dass der beliebig gewählte
Vektor v in der linearen Hülle der Vektoren v1 , . . . , vn−1 liegt, diese Vektoren so-
mit ein Erzeugendensystem bilden.
Es gilt U1 ∩U2 = (0, . . . , 0), und hiermit folgt dimU1 ∩U2 = 0.
Mit Hilfe der Dimensionsformel für Summen ergibt sich
dim(U1 +U2 ) = dimU1 + dimU2 − dim(U1 ∩U2 ) = 1 + n − 1 − 0 = n .
Dies kann man sich auch wieder durch eine Matrix bestätigen, die aus der oben
aufgeführten entsteht, indem eine weitere Spalte, die nur aus Einsen besteht,
angehängt wird. Diese neue Matrix hat Rang n, das entspricht der Dimension
von U1 +U2 .
Kapitel 2
Lineare Abbildungen

2.1 Beispiele und Definitionen


1. Für alle λ1 , λ2 ∈ K und alle f1 , f2 ∈ V gilt
Fφ (λ1 f1 + λ2 f2 )(x) = (λ1 f1 + λ2 f2 ) ◦ φ (x)
= (λ1 f1 + λ2 f2 ) (φ (x))
(∗)
= λ1 · f1 (φ (x)) + λ2 · f2 (φ (x))
= λ
( 1 · f1 ◦ φ (x)) + λ2 ·(f2 ◦ φ (x) )
= (λ1 · Fφ ( f1 ) (x) + λ2 · F)φ ( f2 ) (x)
= λ1 · Fφ ( f1 ) + λ2 · Fφ ( f2 ) (x) ,
wobei im Schritt (∗) die Definition aus Aufgabe 3 zu 1.4 benutzt wurde.
2. Die in den einzelnen Teilaufgaben gegebenen Abbildungen werden außer in
Aufgabe e) durchgehend mit F bezeichnet.
a) Es gilt für alle λ1 , λ2 ∈ R und alle (x1 , y1 ), (x2 , y2 ) ∈ R2
F(λ1 (x1 , y1 ) + λ2 (x2 , y2 )) = F(λ1 x1 + λ2 x2 , λ1 y1 + λ2 y2 )
= (3(λ1 x1 + λ2 x2 ) + 2(λ1 y1 + λ2 y2 ),
λ1 x1 + λ2 x2 )
= λ1 (3x1 + 2y1 , x1 ) + λ2 (3x2 + 2y2 , x2 )
= λ1 F(x1 , y1 ) + λ2 F(x2 , y2 ) ,

somit ist F linear.


b) Für b ̸= 0 gilt F(0) ̸= 0 im Widerspruch zu Bemerkung 2.1.2 a). Ist b = 0, so
erinnern wir an Beispiel c) aus 2.1.1 für K = R und m = n = 1.
c) Analog zu a) kann man die Linearität dieser Abbildung nachrechnen.
d), f) Für alle z = x + iy ∈ C gilt F(x + iy) = x − iy. Wähle λ = i und z = i. Dann
folgt
F(λ · z) = F(i2 ) = F(−1) = −1 ,

aber
λ · F(z) = i · F(i) = i · (−i) = 1 .
Beschränkt man sich jedoch auf die R-Linearität, so gilt für alle λ1 , λ2 ∈ R und
alle z1 = x1 + iy1 , z2 = x2 + iy2 ∈ C

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_10
2.1 Beispiele und Definitionen 147

F(λ1 z1 + λ2 z2 ) = F(λ1 (x1 + iy1 ) + λ2 (x2 + iy2 ))


= F(λ1 x1 + λ2 x2 + i(λ1 y1 + λ2 y2 ))
(∗)
= λ1 x1 + λ2 x2 − i(λ1 y1 + λ2 y2 )
= λ1 (x1 − iy1 ) + λ2 (x2 − iy2 )
= λ1 F(z1 ) + λ2 F(z2 ) .
Dabei wurde an der Stelle (∗) benutzt, dass λi xi und λi yi für i = 1, 2 reell sind.
Somit ist die Abbildung F gerade R-linear, jedoch nicht C-linear.
e) Es bezeichne φ die gegebene Abbildung. Die R-Linearität von φ folgt unmit-
telbar aus den Eigenschaften des Vektorraumes Abb(R, R) und des Körpers der
reellen Zahlen:
φ (λ1 f1 + λ2 f2 ) = (λ1 f1 + λ2 f2 )(1)
= (λ1 f1 )(1) + (λ2 f2 )(1) = λ1 · f1 (1) + λ2 · f2 (1)
= λ1 · φ ( f1 ) + λ2 · φ ( f2 ) .

3. a) Wegen F(0) = 0 ist Fix F ̸= 0.


/ Die Eigenschaften UV2 und UV3 folgen aus
der Linearität von F. Auf dieselbe Art kann man für beliebiges λ ∈ K zeigen,
dass {v ∈ V : F(v) = λ · v} ein Untervektorraum ist. Dies führt auf die Definition
des Eigenraumes zum Eigenwert λ , vgl. Kapitel 4.
b) i) Es gilt {
x1 +2x2 +2x3 = x1
F(x) = x ⇔ x2 = x2
3x1 +x3 = x3 .
Aus der letzten Gleichung folgt x1 = 0 und damit aus der ersten Gleichung
x2 = −x3 . Somit ist eine Basis von Fix F durch (0, 1, −1) gegeben. Eine ele-
gantere Möglichkeit zur Lösung des gegebenen Problems ist mit Hilfe des in
Kapitel 4 entwickelten Formalismus möglich. Man bestimmt dann den Vektor-
raum Eig (F; 1) der Eigenvektoren zum Eigenwert 1, siehe Kapitel 4, insbeson-
dere Bemerkung 4.2.4.
ii) Für deg P > 0 ist deg P′ = deg P − 1, also insbesondere F(P) ̸= P. Ist
deg P = 0, so folgt F(P) = 0, also deg P′ = ∞. Damit ist Fix F = {0} und die
leere Menge eine Basis von Fix F.
iii) Fix F ist die Lösung der Differentialgleichung f ′ = f , deren Lösungen
durch die Funktionen f = λ · exp mit λ ∈ R gegeben sind (vgl. [Fo2], Beispiel
11.2). Also gilt Fix F = span (exp).
148 2 Lineare Abbildungen

Mit iii) ist ii) leicht zu lösen, denn R[t] ⊂ D(R, R) ist ein Untervektorraum, und
damit gilt ( )
Fix F|R[t] = Fix (F) ∩ R[t] = 0 · exp = 0 .

4. Die Assoziativität ist klar. Neutrales Element ist F = idV . Da für jedes v ∈ V
die Menge F −1 (v) aus genau einem Element besteht, definiert man
F −1 : V → V , v 7→ F −1 (v) ,
wobei die Abbildung ebenfalls mit F −1 bezeichnet wird. F −1 ist die inverse
Abbildung zu F. Damit ist Aut (V ) eine Gruppe.
5. Es ist F k (v) ̸= 0 für alle k < n, da sonst F(F l (v)) = 0 für alle l > k wäre im
Widerspruch zu F n (v) ̸= 0. Sei
λ0 v + λ1 F(v) + . . . + λn F n (v) = 0 .
Dann folgt
F(λ0 v + . . . + λn F n (v)) = λ0 F(v) + . . . + λn−1 F n (v) + λn F n+1 (v) = 0 .
| {z }
=0
Wendet man F weitere (n − 1)-mal an, so erhält man ein Gleichungssystem
λ0 v + ... ... ... +λn F n (v) = 0
λ0 F(v) + ... ... +λn−1 F n (v) = 0
λ0 F 2 (v) + . . . +λn−2 F n (v) = 0
.. ..
. .
λ0 F n (v) = 0.
Aus der letzten Gleichung folgt λ0 = 0 wegen F n (v) ̸= 0. Jeweils durch einsetzen
in die darüberstehende Gleichung folgt daraus sukzessive λi = 0 für alle i =
0, . . . , n. Ein Endomorphismus F, für den ein n ∈ N r 0 existiert mit F n = 0,
heißt nilpotent, vgl. Abschnitt 4.5.7.
6. F ist surjektiv, also gilt F(U1 ) + F(U2 ) = W . Ist w ∈ F(U1 ) ∩ F(U2 ) gege-
ben, so gilt w ∈ F(U1 ), also gibt es ein v1 ∈ U1 mit w = F(v1 ). Analog gibt es
wegen w ∈ F(U2 ) ein v2 ∈ U2 mit w = F(v2 ). Aus der Injektivität von F folgt
v1 = v2 =: v und v ∈ U1 ∩U2 = {0}, also v = 0. Wegen der Linearität von F gilt
F(v) = F(0) = 0 = w und damit F(U1 ) ∩ F(U2 ) = {0}. Insgesamt ist
W = F(U1 ) ⊕ F(U2 ).
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ 149

2.2 Bild, Fasern und Kern, Quotientenvektorräume∗


( )
1 2 3
1. i) Gegeben ist F : R3 → R2 , x 7→ · x = A · x. Nach Abschnitt
4 5 6
2.2.1 ist (( ) ( ) ( ))
1 2 3
Im A = span , , ,
4 5 6
eine Basis ist gegeben durch zwei beliebige dieser drei Vektoren, z.B. t (1, 4) und
t (2, 5).

Nach Satz 2.2.4 ist dim Ker F = 1. Wenn man nicht das zugehörige lineare
Gleichungssystem lösen möchte, genügt es, einen Vektor v ̸= 0 mit
F(v) = 0 zu finden. Der Vektor v = t (1, −2, 1) erfüllt diese Eigenschaft, also
gilt Ker F = span (v).
ii) Für die Abbildung
 
1 1 0 1 0
 0 1 1 0 0 
F : R5 → R4 , x 7→  ·x = B·x,
1 1 0 0 1 
0 1 1 0 0
ist ebenfalls das Bild von F gegeben durch die lineare Hülle der Spaltenvektoren
von B, eine Basis ist gegeben durch
( )
B := t (1, 0, 1, 0), t (0, 1, 0, 1), t (1, 0, 0, 0) .
Wiederum nach Satz 2.2.4 gilt dim Ker F = 2. Um eine Basis zu finden, lösen
wir das zur Matrix B gehörige homogene lineare Gleichungssystem. Da durch
elementare Zeilenumformungen nach Satz 0.4.6 die Lösungsmenge des Glei-
chungssystems nicht verändert wird, rechnen wir
   
1 1 0 1 0 1 1 0 1 0
 0 1 1 0 0   0 1 1 0 0 
 1 1 0 0 1  ;  0 0 0 −1 1  .
0 1 1 0 0 0 0 0 0 0
Wir erhalten daraus die Basis
(t )
(1, −1, 1, 0, 0), t ( − 1, 0, 0, 1, 1) von Ker F .

2. Die R-Linearität von d folgt aus den Ableitungsregeln


( f + g)′ (x) = f ′ (x) + g′ (x) und (λ f )′ (x) = λ · f ′ (x)
für alle x ∈ I. Der Kern von d besteht aus allen auf I konstanten differenzierbaren
Abbildungen, daher gilt Ker d = span R (1).
∪ ∪
Falls I = j∈J I j mit I j0 ∩ j̸= j0 I j = 0/ für alle j0 ∈ I eine disjunkte Vereinigung
von Intervallen ist, so gilt
{ }
Ker d = f ∈ D(I, R) : es gibt (c j ) j∈J mit f |I j = c j für alle j ∈ J .
150 2 Lineare Abbildungen

In diesem Falle ist Ker d im Allgemeinen nicht endlichdimensional, denn die


Indexmenge J braucht nicht endlich zu sein.
3. Es genügt zu zeigen, dass ein m ∈ N existiert mit Wm+1 = Wm , denn dann gilt
Wm+i = F(Wm+i−1 ) = . . . = F i (Wm )
= F i−1 (F(Wm )) = F i−1 (Wm ) = . . . = Wm
für alle i > 1.
Wir können F als lineare Abbildung
F : Wl−1 → Wl
auffassen. Nach Korollar 1 zu 2.2.4 gilt
dimWl 6 dimWl−1 .
Ist dimWl−1 = dimWl , so sind wir wegen Wl ⊂ Wl−1 fertig. Ansonsten ist dimWl 6
dimWl−1 − 1, und durch wiederholte Anwendung dieses Arguments gilt
dimWl 6 dimWl−1 − 1 6 . . . 6 dimWl−i − i
für 1 6 i 6 l. Speziell für i = l erhalten wir mit W0 = V
0 6 dimWl 6 dimWl−l − l = dimV − l .
Da dimV = n < ∞, gilt nach spätestens n Schritten dimWn = 0, also ist Wn der
Nullvektoraum, und wir sind fertig.
Man beachte, dass dies nicht heißt, dass für jeden Endomorphismus F not-
wendig Wm = 0 für ein m ∈ N ist. Zum Beispiel ist für F = idV bereits m = 0 und
W0 = V .
4. Sei W := Ker F und (v1 , . . . , vk ) eine Basis von W . Wir wählen
U := Im F ,
und wegen F 2 = F und Korollar 1 aus 2.2.4 gilt V = U ⊕W .
Ist u ∈ U, so folgt
F(u − F(u)) = F(u) − F 2 (u) = F(u) − F(u) = 0
und damit
u − F(u) ∈ U ∩ Ker F = (0) .
Das heißt gerade u = F(u) für alle u ∈ U.
Ein Endomorphismus F ̸= 0 mit F 2 = F heißt idempotent, siehe auch Aufgabe
8 zu 2.4.
5. a) Die angegebene Matrix hat Rang 1, also gilt dim Ker F = 2. Eine Möglich-
keit der Darstellung ist ( )
Ker F = span t (1, −2, 0), t (0, 3, −1) = span (v1 , v2 ) .
Nach dem Faktorisierungssatz 2.2.5 ist es gleich, wie wir (v1 , v2 ) zu einer Basis
des R3 ergänzen. Wir wählen u := t (1, 0, 0) und bezeichnen U := span (u); dann
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗ 151

ist (u, v1 , v2 ) eine Basis des R3 . Ferner ist


F|U : U → Im F
ein Isomorphismus. Für F(u) = t (2, −4) =: w gilt Im F = span (w), und wir
wählen w′ := t (1, 0) zur Ergänzung zu einer Basis des R2 .
b) Ist x ∈ Im F, so existiert ein v ∈ R3 mit F(v) = x. Bezeichnet (v1 , v2 ) die unter
a) berechnete Basis von Ker F, so gilt für jedes Paar (λ1 , λ2 ) ∈ R2
F(v + λ1 v1 + λ2 v2 ) = F(v) + λ1 F(v1 ) + λ2 F(v2 ) = F(v) = x ,
und die gesuchte Parametrisierung ist gegeben durch
φ : R2 → F −1 (x) , (λ1 , λ2 ) 7→ v + λ1 v1 + λ2 v2 .
F −1 ist eine Ebene E im R3 , genauer ist sie der um den Vektor v parallelver-
schobene Kern von F, siehe Bild 2.1. Damit ist anschaulich sofort klar, dass
F −1 (x) mit der Geraden span (u) genau einen Schnittpunkt hat. Die Aussage
folgt aber auch aus dem Faktorisierungssatz 2.2.5, Teil 2), denn danach gibt es
für ein x ∈ Im F genau ein v ∈ U mit F(v) = x.

Bild 2.1

6. π ist nach Konstruktion injektiv. Gilt nämlich π (x) = x̄ = 0, so ist


x1 = . . . = xm−1 = 0. Allerdings ist für x ∈ W gerade
xm = µ1 x1 + . . . + µm−1 xm−1 = 0 ,
also x = 0. Wegen SR(Ā) = π (SR(A)) folgt aus der Injektivität von π unmittelbar
dimSR(Ā) = dimSR(A).
Übrigens kann man die Surjektivität von π genauso leicht nachweisen.
152 2 Lineare Abbildungen

7. Es sei V = Ṽ ⊕ Ker F eine Zerlegung gemäß des Faktorisierungssatzes 2.2.5.


Da F|Ṽ : Ṽ → Im F ein Isomorphismus ist, ist auch
F|F −1 (U)∩Ṽ : F −1 (U) ∩ Ṽ → U ∩ Im F
ein Isomorphismus, also gilt
( )
dim F −1 (U) ∩ Ṽ = dim(U ∩ Im F) . (∗)
Wegen V = Ṽ ⊕ Ker F gilt mit Ker F ⊂ F −1 (U) gerade
( )
F −1 (U) = F −1 (U) ∩ Ṽ ⊕ Ker F .
Dann folgt
( )
dimF −1 (U) = dim F −1 (U) ∩ Ṽ + dim Ker F
(∗)
= dim(U ∩ Im) + dim Ker F .

8. Die Behauptung folgt aus


v′ ∈ X ⇔ v − v′ ∈ W ⇔ v′ +W = v +W ∈ V /W
und der Tatsache, dass es sich bei ∼W um eine Äquivalenzrelation handelt. (Be-
achte auch den einleitenden Text in 2.2.7.)
9. Nach Satz 2.2.7 ist für eine lineare Abbildung F : V → W mit U ⊂ Ker F
die Abbildung F̄ : V /U → W mit F = F̄ ◦ ρ eindeutig bestimmt, also ist die
Abbildung
φ : {F ∈ Hom (V,W ) : F|U = 0} → Hom (V /U,W ) , F 7→ F̄ ,
wohldefiniert.
Die Linearität von φ folgt sofort aus der Kommutativität des Diagramms
F -
V W

ρ
? F̄
V /U
mit Hilfe von Aufgabe 3 zu 1.4.
Um den Kern von φ zu bestimmen, betrachten wir die Nullabbildung
F̄0 ∈ Hom (V /U,W ) und wählen ein F0 ∈ {F ∈ Hom (V,W ) : F|U = 0} mit
F̄0 = φ (F0 ). Für alle v +U ∈ V /U gilt dann F̄0 (v +U) = 0. Aus der Bedingung
F0 = F̄0 ◦ ρ folgt für alle v ∈ V
F0 (v) = F̄0 (ρ (v)) = F̄0 (v +U) = 0 ,
also ist F0 wegen F0 |U = 0 die Nullabbildung, und φ ist injektiv.
2.3 Lineare Gleichungssysteme 153

Um die Surjektivität von φ zu zeigen, wählen wir ein F̄ ∈ Hom (V /U,W ) und
definieren F := F̄ ◦ ρ . Für ein u ∈ U gilt u ∼U 0, und damit folgt
F(u) = F̄ ◦ ρ (u) = F̄(u +U) = F̄(0 +U) = 0 ,
d.h. F|U = 0 und F̄ = φ (F). Also ist φ surjektiv.

Lösung der Ergänzungsaufgabe


E1. Mithilfe eines CAS erhält man durch Ausprobieren
( )
1 2 3
k k→∞ 1
A3 −→ · 1 2 3 und
6 1 2 3
 
1 2 3 4 5
k→∞ 1  .. .. .. .. ..  .
Ak5 −→ · . . . . .
15
1 2 3 4 5
Hieraus ergibt sich die Vermutung
 
1 2 ··· n
k 1 . . .. 
lim An = .. .. .
k→∞ r
1 2 ··· n
n
n(n + 1)
mit r = ∑ i = .
i=1 2
Der Rang der Grenz-Matrix A ist gleich 1.

2.3 Lineare Gleichungssysteme


1. Wir lösen zunächst das lineare Gleichungssystem, das durch folgende Matrix
dargestellt wird.  
2 1 1 0 0 7.5
 5 6 2 0 1 22.5 
 
 0 3 2 1 3 6.5  .
 3 0 3 4 3 16 
0 0 2 5 3 7.5
Es hat die Lösung (3, 1, 0.5, 1, 0.5). Dieser Vektor beschreibt die Beiträge in Ge-
wichtseinheiten (GE), den die Stationen leisten. Z.B. trägt der Landwirt 3 GE
zur Gesamtschadstoffbelastung bei. Da er ausschließlich das Mittel A aufbringt,
dessen Zusammensetzung wir kennen, kann man schließen, dass er für 0.6 GE
des Schadstoffes S1 , 1.5 GE von S2 und 0.9 GE von S4 verantwortlich ist. Ent-
sprechende Folgerungen gelten analog für die übrigen Stationen.
154 2 Lineare Abbildungen

2. Wer die zehnte Auflage der Linearen Algebra hat, kann diese Aufgabe sehr
schnell beantworten; hier hat sich nämlich der Fehlerteufel eingeschlichen: Die
gesuchte Legierung soll lediglich 50% Silber enthalten. Unter diesen Umständen
ist die Aufgabe nicht ganz so einfach. Wir lösen mittels Zeilenumformungen
( ) ( )
20 70 50 40 1 0 0 0.4
60 10 50 50 ; 0 1 0 0.1 ,
20 20 0 10 0 0 1 0.5
um die gewünschte Mischung aus 40% Kupfer, 50% Silber und 10% Gold zu
bekommen; das liefert (0.4, 0.1, 0.5). Für die gewünschte Mischung nimmt man
also 40% der Mischung M1 , 10% der Mischung M2 und 50% der Mischung M3 .
3. Es seien a1 j1 , . . . , ar jr die Pivots von A, d.h.
 
a1 j1 · · · ∗
 a2 j2 · · · 
 
A= 
..
. .

 ar jr · · · 
0
Wegen ai ji ̸= 0 kann man die Vektoren
vi = t (0, . . . , 0, (ai ji )−1 , 0, . . . , 0)
| {z }
ji
für i = 1, . . . , r definieren. Es gilt Avi = ei nach Konstruktion, und damit ist
span (e1 , . . . , er ) ⊂ Im A .
Aus Teil 1) von Korollar 2.3.1 folgt dimKer A = n − r, also dimIm A = r. Damit
erhalten wir
span (e1 , . . . , er ) = Im A .

4. Die Matrizen 
lauten   
0 0 0 0 0 1 0
 1 1 25   0 −7 
7 − 28 
3 3
 2 2  
 0 1 −1 1   1 
 0 2   0 
 2 2
3   
D =  0 0 −1 0 4  , C= 0 4 .
   
 0 0 0 0 0   0 1 
   
 0 0 1 
0 − 17 − 28  0 0 
0 0 0 0 − 14 0 0
2.3 Lineare Gleichungssysteme 155

5. Wir lösen zunächst Teilaufgabe b), was auch eine Lösung für den Spezialfall
a) liefert. Ax = b ist universell lösbar mit der Lösung
( 12 b2 − b3 , −4b1 + 25 b2 + 2b3 , 3b1 − 2b2 − b3 ) .
Für ( )
2
Ax = 4
9
ergibt sich somit die Lösung x = (−7, 20, −11).
Bx = b ist universell lösbar mit der Lösung
x = (−b1 + 2b2 , 12 b1 − 98 b2 + 83 b3 , 12 b1 − 85 b2 − 81 b3 , 0) + λ (−4, −3, 1, 4) .
Die spezielle in Teil a) gefragte Lösung lautet also
(−2, 27 , 12 , 0) + λ (−4, −3, 1, 4) .
m
6. Das gesuchte Polynom f ist gegeben durch f := ∑ φi2 . Für alle x ∈ Rn gilt
i=1
φ 2 (x) > 0, und die Summe von reellen Quadratzahlen ist genau dann gleich 0,
wenn alle Quadratzahlen gleich 0 sind. Daher gilt W = {x ∈ Rn : f (x) = 0}.
Nun sei K ein endlicher Körper. Wir greifen zu einem Trick: Bei einem Po-
lynom f ∈ R := K[t1 , . . . ,tn ] können wir die Unbestimmten t1 , . . . ,tn durch Poly-
nome g1 , . . . , gn ∈ R ersetzen – diesen Vorgang nennt man Substitution. Es gilt
f (g1 , . . . , gn ) ∈ R.
Fassen wir nun die φi als Elemente in R auf, so genügt es, ein Polynom f˜ ∈ R
zu finden, das 0 als einzige Nullstelle besitzt, denn für
f := f˜(φ1 , . . . , φn ) ∈ R
gilt dann
f (φ1 , . . . , φn )(x) = 0 ⇔ φ1 (x) = . . . = φn (x) = 0 .
Ein solches Polynom f˜ gilt es im Folgenden zu konstruieren.
Da K ein endlicher Körper ist, ist er insbesondere nicht algebraisch abge-
schlossen (vgl. [W], 6.3 oder [Ku1], 7.III.), denn das Polynom
f1 = ∏ (t1 − λ ) + 1 ∈ K[t1 ]
λ ∈K
besitzt keine Nullstelle in K. Das Polynom f1 ist das nach Aufgabe 6 zu 1.3
existierende Polynom für den Fall, dass für die xi alle Elemente des Körpers K
eingesetzt und alle yi = 1 gesetzt werden.
156 2 Lineare Abbildungen

Im nächsten Schritt konstruieren wir aus f1 ein homogenes Polynom


f2 ∈ K[t1 ,t2 ], die Homogenisierung von f1 . Dazu sei f1 = a0 + a1t1 + . . . + ad t1d .
Dann ist das Polynom
f2 := a0 · t2d + a1t1 · t2d−1 + . . . + ad−1t1d−1 · t2 + ad t1d ∈ K[t1 ,t2 ]
homogen vom Grad d (vgl. die Lösung von Aufgabe 3 zu 1.3).
Für das Polynom f2 gilt außerdem
f2 (t1 ,t2 ) = 0 ⇔ (t1 ,t2 ) = (0, 0) ,
d.h. 0 ist die einzige Nullstelle von f2 .
Ist n = 2, so sind wir damit bereits fertig. Ansonsten bilden wir das Polynom
f3 (t1 ,t2 ,t3 ) := f2 (t3 , f2 (t1 ,t2 )) ∈ K[t1 ,t2 ,t3 ] .
Nach Konstruktion ist
f3 (t1 ,t2 ,t3 ) = 0 ⇔ (t3 , f2 (t1 ,t2 )) = (0, 0) ⇔ (t1 ,t2 ,t3 ) = (0, 0, 0) .
Dieses Verfahren setzen wir so lange fort, bis das richtige n erreicht ist, und
definieren f˜ := fn ∈ R.
7. Wir zeigen ein paar Ideen für einen neuen Beweis von Satz 0.2.4. Die Ein-
zelheiten stecken vor allem im Beweis von Satz 2.3.4. Den LeserInnen wird em-
pfohlen, sich diesen Beweis noch einmal genau anzusehen. Die neue Lösung von
Aufgabe 2 a) zu 0.3 findet man analog.
Die gesuchte Gerade L kann durch L = Lös (A, b) mit A = (a1 , a2 ) beschrieben
werden. Nach Voraussetzung ist (a1 , a2 ) ̸= (0, 0), daher ist rang A = 1, und nach
Satz 2.3.4, Teil 3) gilt
Lös (A, b) = φ (b) + Lös (A, 0) = v + R · w ,
vgl. auch Abschnitt 2.3.5. Die Umkehrung ist nach Satz 2.3.4 ebenfalls klar.
8. Der Beweis verläuft analog wie in Aufgabe 7, also unter Benutzung von Satz
2.3.4, siehe hierzu auch Abschnitt 2.3.5.
Zur geometrischen Bedeutung ( betrachten wir zunächst
) v = 0, d.h. auch b = 0,
a11 a12 a13
und L = Lös (A, 0). Sei A = . Dann gilt für den Vektor w
a21 a22 a23
gerade A · w = 0, d.h. (a11 , a12 , a13 ) und (a21 , a22 , a23 ) spannen eine Ebene des
R3 auf, die senkrecht auf der Geraden R · w steht. Die Multiplikation von w mit
den Zeilen von A entspricht dem kanonischen Skalarprodukt des R3 , vgl. Kapitel
5.1.
Sind v und w linear abhängig, so kann dies auf den obigen Fall zurückgeführt
werden.
Sind v und w linear unabhängig, so gilt für v ̸= 0 auch b = A · v ̸= 0, und für
alle v + λ w ∈ L ist
A · (v + λ w) = A · v + λ · A · w = b + λ · 0 = b ,
2.4 Lineare Abbildungen und Matrizen 157

d.h. die beiden Zeilenvektoren der Matrix A bestimmen immer noch einen zwei-
dimensionalen Unterraum E des R3 , der senkrecht auf der Geraden L steht (vgl.
Bild 2.2).

Bild 2.2
Wie vielleicht aus der Schule noch bekannt ist, ist der Richtungsvektor, der
senkrecht auf einer Ebene im R3 steht, bis auf das Vorzeichen und die Länge
eindeutig bestimmt. Man gelangt so zur Hesseschen Normalenform einer Ebene,
vgl. auch Aufgabe 5 d) zu Abschnitt 5.1.

2.4 Lineare Abbildungen und Matrizen


1. Es gilt
−(2, 0) + 4 · (1, 1) = 2 · (1, 2) .
Für eine lineare Abbildung F mit F(2, 0) = (0, 1), F(1, 1) = (5, 2) und
F(1, 2) = (2, 3) gilt dann
F(−(2, 0) + 4 · (1, 1)) = −F(2, 0) + 4 · F(1, 1)
= −(0, 1) + 4 · (5, 2) = (20, 7)
̸= (4, 6) = 2 · F(1, 2) = F(2 · (1, 2)) ,
daher gibt es keine lineare Abbildung mit den geforderten Eigenschaften.
2. a) Es ist nur die lineare Unabhängigkeit der Elemente aus B zu zeigen. Seien
dazu λ1 , . . . , λ5 ∈ R mit
λ1 · sin +λ2 · cos +λ3 · sin · cos +λ4 · sin2 +λ5 · cos2 = 0
in Abb (R, R), also die Nullabbildung. Wir wenden sie auf x1 = 0, x2 = π4 , x3 = π3 ,
x4 = π2 und x5 = 23π an. Das liefert die fünf Gleichungen

√ √ λ2 + λ5 = 0
√ 0.5 λ 1 + 0.5λ2 + √ 0.5λ3 + 0.5λ4 + 0.5λ5 = 0
0.75λ1 + 0.5λ2 + 0.5 0.75λ3 + 0.75λ4 + 0.25λ5 = 0
√ λ1 √ + λ4 = 0
0.75λ1 − 0.5λ2 − 0.5 0.75λ3 + 0.75λ4 + 0.25λ5 = 0,
158 2 Lineare Abbildungen

die wir als Einträge einer Matrix A mit


 
√0 √1 0 0 1
 0.5 0.5 0.5 0.5 0.5 
 √ √ 
A=  0.75 0.5 0.5 0.75 0.75 0.25 

 
√1 0 0
√ 1 0
0.75 −0.5 −0.5 0.75 0.75 0.25

auffassen können. Wegen rang A = 5 müssen alle λi = 0 sein.


b) Nach 2.4.4 ist MB (F) bestimmt durch
5
F(v j ) = ∑ ai j vi für j = 1, . . . , 5 .
i=1

Bezeichnet v1 = sin, v2 = cos, v3 = sin · cos, v4 = sin2 , v5 = cos2 , so folgt


F(v1 ) = cos = a21 v2 ,
F(v2 ) = − sin = a12 v1 ,
F(v3 ) = cos2 − sin2 = a53 v5 + a43 v4 ,
F(v4 ) = 2 sin · cos = a34 v3 ,
F(v5 ) = −2 sin · cos = a35 v3 .

Insgesamt folgt daraus


 
0 −1 0 0 0
 1 0 0 0 0 
 
MB (F) =  0 0 0 2 −2  .
 0 0 −1 0 0 
0 0 1 0 0

c) Aus den Spalten von MB (F) bestimmt man eine Basis von Im F. Wie man
leicht erkennt, sind die vierte und die fünfte Spalte von MB (F) linear abhängig,
die ersten vier Spalten jedoch linear unabhängig. Daher ist eine Basis von Im F
gegeben durch (cos, − sin, cos2 − sin2 , 2 sin cos).
Aus den Spalten vier und fünf von MB (F) erkennt man, dass sin2 + cos2 im
Kern von F liegt, was aus sin2 x + cos2 x = 1 für alle x ∈ R auch sofort nach-
zuvollziehen ist. Da dim Ker F = dimV − dim Im F = 5 − 4 = 1 gilt, ist somit
Ker F = span (v4 + v5 ).
2.4 Lineare Abbildungen und Matrizen 159

D
3. a) Es gilt t i 7→n i · t i−1 für 0 6 i 6 n, also
 
0 1 0 ··· ··· ··· 0 
 ... . . . 2 . . . ..  
 .  


 . .. .. ..  

 .
. . 3 . . 
Bn
MBn−1 (Dn ) =  . 
.. .. ..   n .
 .. . . . 

0
 . 

 .. 0 n−1 0   


0 ··· ··· ··· ··· 0 n
| {z }
n+1
b) Wir definieren In als lineare Fortsetzung von t i 7→ i+1 1 i+1
t . Dann gilt die
notwendige Bedingung Dn ◦ In = idVn−1 . Die Matrix von In lautet
 
0 ··· ··· ··· 0 
 1 ... ..   

 .  

 . . 
..   
Bn−1  0 1 ..
MBn (In ) =  2 
 .. . . . 1 . . . ..   n + 1 .
 . .  
 . 3  
 .. . 0 
.. .. 
. 

0 ··· ··· 0 n 1
| {z }
n
4. a) Wir bestimmen zunächst die Bilder der Basisvektoren aus B. Es gilt:
∫1 ∫1
F(1) = 1dt = 2 , F(t) = tdt = 0 ,
−1 −1
∫1 ∫1
F(t 2 ) = t 2 = 32 , F(t 3 ) = t 3 dt = 0 ,
−1 −1
und G(1) = (1, 1, 1) , G(t) = (−1, 0, 1) ,
G(t 2 ) = (1, 0, 1) , G(t 3 ) = (−1, 0, 1) .
Somit ist B
( )
MK (F) = 2, 0, 32 , 0 ∈ M(1 × 4, R)
und ( )
1 −1 1 −1
B
MK ′ (G) = 1 0 0 0 ∈ M(3 × 4, R) .
1 1 1 1
b) Wir vereinfachen MB
K ′ (G) (
durch Zeilenumformungen und erhalten
)
1 0 0 0
0 1 0 1 .
0 0 1 0
160 2 Lineare Abbildungen

F
Daher gilt Ker (G) = span {t − t 3 }. Es genügt, t − t 3 7→ 0 zu zeigen. Das ist
leicht einzusehen: F(t − t 3 ) = F(t) − F(t 3 ) = 0 − 0 = 0. Die ⊂-Relation ist
echt, denn an der Matrix MK B (F) sehen wir, dass Ker F Dimension 3 hat. Es

gilt Ker F = span {t,t , 1 − 3t 2 }.


3

c) Wir bestimmen die Matrix MK K ′ (H). Es gilt M K ′ (H) ∈ M(1 × 3, R) und


K (
K (H) · M B (G) = M B (F). Eine Rechnung liefert M K ′ (H) = 1 , 4 , 1 . H
′ )
MK K′ K K 3 3 3
H
ist also die Abbildung R3 → R, (x, y, z) 7→ 31 x + 43 y + 13 z.
5. Es seien A1 = (v1 , . . . , vr ) bzw. A2 = (v̄1 , . . . , v̄s ) Basen von V1 bzw. V2 und
B1 = (w1 , . . . , wk ) bzw. B2 = (w̄1 , . . . , w̄l ) Basen von F(V1 ) ⊂ W1 bzw. F(V2 ) ⊂
W2 . Wir ergänzen B1 bzw. B2 zu Basen B1′ von W1 bzw. B2′ von W2 . Wegen
W = W1 ⊕W2 ist B := B1′ ∪ B2′ eine Basis von W . Analog ist wegen V = V1 ⊕V2
gerade A := A1 ∪ A2 eine Basis von V (vgl. Satz 1.6.4). Bezüglich der Basen
A und B hat MB A die angegebene Gestalt.

j
6. Wir zeigen zuerst, dass die Fi ein Erzeugendensystem sind. Dazu nehmen wir
ein beliebiges F ∈ Hom (V,W ). Ein solches F ist durch die Bilder der Basisvek-
toren v1 , . . . , vn eindeutig bestimmt. Ist
m
F(vk ) = ∑ ak j · w j für k = 1, . . . , n ,
j=1
so gilt m n
F= ∑ ∑ ai j · Fi j .
j=1 i=1
j
Das zeigt, dass die Fi ein Erzeugendensystem bilden.
Sei nun m n
F = ∑ ∑ ai j Fi = 0
j

j=1 i=1
die Nullabbildung. Dann gilt für beliebiges k = 1, . . . , n
m n m
0 = F(vk ) = ∑ ∑ ai j Fi j (vk ) = ∑ ak j w j .
j=1 i=1 j=1
Da die w j linear unabhängig sind, folgt daraus ak j = 0 für j = 1, . . . , m. Dies
j
gilt für beliebiges k, also müssen alle ai j = 0 sein; damit sind die Fi linear un-
abhängig.
7. Wir berechnen mittels Zeilenumformungen von A eine Basis des Kerns von F:
Ker F = span (a3 , a4 ) mit a3 := t (12, 7, 0, 1) , a4 := t (10, 6, 1, 0) .
Mit Hilfe von Spaltenumformungen erhalten wir eine Basis des Bildes von F:
Im F = span (b1 , b2 ) mit b1 := t (1, 0, −1) , b2 := t (0, 1, 1) .
2.4 Lineare Abbildungen und Matrizen 161

Im nächsten Schritt berechnen wir spezielle Urbilder dieser Basisvektoren. Wir


erhalten
F(t (−5, −3, 0, 0)) = b1 und F(t (3, 2, 0, 0)) = b2 .
| {z } | {z }
=:a1 =:a2

Damit steht A = (a1 , a2 , a3 , a4 ) fest. b1 , b2 müssen noch zu einer Basis des R3


ergänzt werden. Wir wählen b3 := t (0, 0, 1). Dann ist B = (b1 , b2 , b3 ) eine Basis
des R3 , und MBA (F) hat die gewünschte Form.

8. Nach Aufgabe 4 zu 2.2 gibt es Untervektorräume V1 und V2 von V mit


V = V1 ⊕ V2 und F|V1 = idV1 sowie F|V2 = 0. Insbesondere gilt F(V1 ) ⊂ V1 und
F(V2 ) ⊂ V2 . Nach Aufgabe 5 existieren Basen A und B von V mit
( )
A A 0
MB (F) = .
0 B
Wegen V = W und den obigen Überlegungen können wir sogar A = B wählen.
Aus F|V2 = 0 folgt B = 0, wegen F|V1 = idV1 gilt A = Er , wobei r = dimV1 ist.
9. Es sei B1 = (v1 , . . . , vr ) eine Basis von Fix F. Wir ergänzen sie zu einer Basis
B von V . Nach Satz 2.4.2 hat MB (F) die angegebene Gestalt.
Man beachte die Ähnlichkeit zu Aufgabe 8. Ein Endomorphismus F mit
F 2 = F ist ein spezieller Fall der hier betrachteten Endorphismen mit
V = Fix F ⊕ Ker F.

Lösung der Ergänzungsaufgabe


E1. a) Eine standardgemäße Basis ist gegeben durch B = (1,t,t 2 ,t 3 ).
Aus d d d 2 d 3
(1) = 0 , (t) = 1 , t = 2t , (t ) = 3t 2
dt dt dt dt
folgt  
( ) 0 1 0 0
d  0 0 2 0 
=
0 0 0 3 
MB .
dt
0 0 0 0
b) Analog zu oben berechnet man
d 3 d d d
(t ) = 3t 2 , (3t 2 ) = 6t , (6t) = 6 , (6) = 0 .
dt dt dt dt
Die Faktoren von den Potenzen sind zu berücksichtigen, daher ergibt sich die
Matrix  
( ) 0 0 0 0
d  1 0 0 0 
=
0 1 0 0 
MB̃ .
dt
0 0 1 0
162 2 Lineare Abbildungen

c) Mit Rechnungen analog zu den Teilen a) und b) ergibt sich


 
0 0 0 6
 0 0 6 0 
T =
0 3 0 0 
,
1 0 0 0
wie sich durch eine Probe bestätigen lässt. Ihre Inverse ist gegeben durch
 
0 0 0 1
 0 0 1 0 
T −1 =  0 1 0 0 ,
3 
6
1
6 0 0 0
und es ergibt sich
 
0 1 0 0
 0 0 2 0 
T · MB̃ · T −1 = 
3 
.
0 0 0
0 0 0 0

2.5 Multiplikation von Matrizen


1. Die möglichen Produkte der Matrizen lauten:
( ) ( )
3 12 −17 1 −1 −1 1
2
A = 5 49 −20 , AB = 5 3 −5 −3 ,
( −6 −33 )91 ( −8 ) 8 8 −8
13 15 7
AE = 30 55 , BC = 7 ,
 −41 −12  −7
−1 2 0 8
 0 0 0 0 
CD = 
64 
, DC = (−57).
−8 16 0
7 −14 0 −56

2. a) Es sei M ∈ M(m × n; K) mit M = (mi j )16i6m;16 j6n . Für die Diagonalen-


einträge gilt i = j. Die Einträge auf der Geraden L von der Stelle (1, k) bis zu
(n + 1 − k, n) oberhalb der Diagonale lauten mi j mit
j = i−1+k ⇔ i = j+1−k.
Für die Einträge mi j auf der Geraden L′ von (k, 1) bis (n, n + 1 − k) gilt
j = i+1−k ⇔ i = j−1+k.
Dementsprechend gilt für die Einträge mi j in H oberhalb von L
j > i−1+k ⇔ i < j+1−k
2.5 Multiplikation von Matrizen 163

und für die Einträge in H ′ unterhalb von L′


i > j−1+k ⇔ j < i+1−k.
Diese etwas lästig zu formulierenden Zusammenhänge werden wir für den for-
malen Beweis der Aussagen aus Aufgabe b) brauchen.
b) Die Formulierungen der Aussagen gelingen unseren LeserInnen bestimmt
mindestens genauso gut wie uns; wir lassen sie daher aus.
Für die erste Matrix A = (ai j ) gilt: ai j ̸= 0 ist nur für i 6 j 6 i − 1 + k möglich.
Andererseits ist für B = (b jm ) gerade b jm ̸= 0 nur für m 6 j 6
m − 1 + k möglich. Sei nun i < m, also cim im oberen Dreieck von (cim ) = C
mit C = AB. Dann gilt
n i−1+k
cim = ∑ ai j b jm = ∑ ai j b jm .
j=1 j=m
Insbesondere ist cim = 0 falls m > i − 1 + k, falls also cim im Bereich von H liegt.
Sei nun i > m, d.h. cim liegt im unteren Dreieck von C. Dann gilt
m−1+k
cim = ∑ ai j b jm ,
j=i
insbesondere cim = 0 für i > m − 1 + k, was so viel bedeutet wie (i, m) ∈ H ′ .
Nun kommen wir zur zweiten Gleichung. Wenn wir die erste obere Dreiecks-
matrix mit D = (di j ) bezeichnen, ist di j ̸= 0 nur für j > i − 1 + k möglich. Die
zweite Dreiecksmatrix soll nun E = (e jm ) heißen; es gilt dann e jm ̸= 0 nur für
j 6 m. Für das Produkt DE = F = ( fim ) gilt dann
n m
fim = ∑ di j e jm = ∑ di j e jm .
j=0 j=i+k
Insbesondere ist fim = 0, wenn m < i + k, d.h. wenn fim echt unterhalb der In-
dexgerade durch (1, k + 1), (2, k + 2) . . . liegt, was zu beweisen war.
c) Wir zeigen zunächst eine Hilfsbehauptung, aus der wir dann die hier beschrie-
bene Tatsache folgern können.
Sei A = (ai j ) ∈ M(n × n; K) mit ai j = 0 für i > j. Die Hilfsbehauptung lautet:
Für Am =: Bm = (bm i j ) gilt bi j = 0 für i > j + 1 − m für alle
m

m ∈ N r {0}. Den Beweis führen wir durch Induktion über m. Für m = 1 ha-
ben wir die Voraussetzung in etwas neuer Form. Angenommen, die Behauptung
sei für m bereits gezeigt. Dann gilt
Bm+1 = Am+1 = Am · A = Bm · A ,
wobei Bm und A die Gestalt haben, die den Matrizen D und E aus der zweiten
Aussage von b) entsprechen. Nach b) folgt dann
i j = 0 für i > j − m ⇔ i > j + 1 − m .
bm
164 2 Lineare Abbildungen

Nachdem wir diese Hilfsbehauptung bewiesen haben, gilt für den Spezialfall
m = n + 1 gerade ( j + 1) − (n + 1) = j − n 6 0, damit ist i > j + 1 − m stets
gegeben, Bn+1 ist somit die Nullmatrix.
Zur Veranschaulichung berechnen wir die Potenzen von
 
0 1 1 1 1
 0 0 1 1 1 
 
M= 0 0 0 1 1 .
 0 0 0 0 1 
0 0 0 0 0
Es gilt
   
0 0 1 2 3 0 0 0 1 3
 0 0 0 1 2   0 0 0 0 1 
   
M2 =  0 0 0 0 1 , M3 =  0 0 0 0 0 ,
 0 0 0 0 0   0 0 0 0 0 
0 0 0 0 0 0 0 0 0 0
 
0 0 0 0 1
 0 0 0 0 0 
 
M4 =  0 0 0 0 0  , M 5 = (0) .
 0 0 0 0 0 
0 0 0 0 0
Vergleiche auch die Ergebnisse dieses Beispiels mit der Lösung zu Aufgabe E1.
3. a) Diese Teilmenge ist ein Unterring. Die Abgeschlossenheit bezüglich der
Multiplikation folgt aus Aufgabe 2 b). Dass die angegebene Menge bzgl. der
Addition eine Gruppe bildet, rechnet man ohne Schwierigkeiten nach.
b) Die Matrizen sind von der Form wie auf der rechten Seite der ersten Glei-
chung von Aufgabe 2 b). Aus diesem Grunde bilden sie, wie man dort erkennen
kann, für k > 2 keinen Unterring, da bei der Multiplikation die Anzahl der Dia-
gonalreihen ungleich 0 ansteigen kann.
Für k = 0 besteht die Menge hingegen nur aus der Nullmatrix, und für k = 1
nur aus Diagonalmatrizen. Diese Mengen sind Unterringe von M(n × n; K).
c) Diese Menge ist ein Unterring. Die wesentliche Eigenschaft ist
( ) ( ′ ′ )( ′ )
a b a b aa ab′ + bc′
· ′ ′ ,
0 c 0 c 0 cc
denn aus a, a′ ∈ Q folgt aa′ ∈ Q.
d) Diese Menge ist ebenfalls ein Unterring, denn es gilt
( ) ( ) ( )
0 a 0 a′ 0 ab′
· ′ = ′ .
0 b 0 b 0 bb
2.5 Multiplikation von Matrizen 165

e) Die Menge enhält alle Matrizen der Form


 
λ1 0
 .. 
 . 
 ,
 0 λk−1 
0
wobei in den letzten n − k Zeilen lauter Nullen stehen. Diese Menge ist sicher
ein Unterring.
4. a) Es seien B = (bi j ), λ En B = (ai j ) =: A und B(λ En ) = (ci j ) =: C. Dann gilt
n n
ai j = ∑ λ δik bk j = λ bi j und ci j = ∑ bik λ δk j = bi j λ .
k=1 k=1
Dabei steht δi j wie üblich für das Kronecker-Symbol
{
1 für i = j ,
δi j :=
0 sonst.
Damit ist die Behauptung gezeigt, weil in K das Kommutativgesetz für die Mul-
tiplikation gilt.
b) Sei nun A ∈ M(n × n; K) mit AB = BA für alle B. Daraus wollen wir A = λ En
folgern. Zum Beweis betrachten wir ein spezielles B. Es sei
   
1 1
 0 .. 0  A = A  0 .. 0  ,
. .
1 1
wobei die Spalte aus Einsen an i-ter Stelle stehen soll. Multipliziert man diese
Gleichung aus, so ergibt sich
   
ai1 ai2 · · · ain a11 + . . . + a1n
 .. . .
.. ..  =  0
. .
.. 0 ,
ai1 ai2 · · · ain an1 + . . . + ann
wobei in der Matrix auf der rechten Seite nur in der i-ten Spalte Einträge ungleich
null stehen können. Ein Vergleich der beiden Seiten liefert
ai j = 0 für j ̸= i
und n n
a11 = ∑ a1 j = . . . = ∑ an j = ann ,
j=1 j=1
was zu beweisen war.
166 2 Lineare Abbildungen

5. In dieser Aufgabe geht es um eine Matrizendarstellung des Körpers der kom-


plexen Zahlen. ( )
a −b
a) Zunächst ist zu zeigen, dass die Menge C = { : a, b ∈ R} ein
b a
Körper ist. Es sollte klar sein, dass C in Bezug auf die Addition eine kommutati-
ve Gruppe ist, denn C ist abgeschlossen gegenber Addition, die Nullmatrix liegt
in C und inverse Elemente bzgl. Addition liegen ebenfalls in C. Betrachten wir
nun die Eigenschaften von C im Hinblick auf Multiplikation. Die Einheitsmatrix
liegt in C. Eine kurze Rechnung
( )( ) ( )
a −b c −d ac − bd −ad − bc
= ∈C
b a d c ad + bc ac − bd
zeigt, dass C bzgl. der Multiplikation abgeschlossen ist. Die Distributivgesetze
für Matrizen brauchen nicht erneut nachgerechnet werden; das haben wir allge-
meiner schon getan. In C ist die Multiplikation sogar kommutativ, denn es gilt
( )( ) ( )
a −b c −d ac − bd −ad − bc
=
b a d c ad + bc ac − bd
( )( )
c −d a −b
= .
d c b a
Nun wird es spannend, weil wir zu jedem Element ̸= 0 aus C ein Inverses bzgl.
der Multiplikation finden müssen, das zudem noch in der Menge C enthalten
sein muss. Das ist für Matrizen im Allgemeinen weder möglich noch besonders
einfach, falls es möglich ist. Hier gelingt es jedoch, es gilt nämlich
( )−1 ( a b
)
a −b a2 +b2 a2 +b2
= −b a .
b a a2 +b2 a2 +b2
( )
a −b
Dieses Inverse ist definiert, denn für ̸= 0 ist a2 + b2 > 0, also ins-
b a
besondere ungleich null.
b) Angenommen, X 2 + 1 = 0 hat eine Lösung in C. Dann existieren a, b ∈ R mit
( )2 ( )
a −b 1 0
+ =0
b a 0 1
( 2 ) ( )
a − b2 −2ab −1 0
⇔ =
2ab a −b
2 2 0 −1
⇔ a2 − b2 = −1 und 2ab = 0
⇔ a = 0 und b = ±1 ,
womit nicht nur die Existenz einer Lösung gezeigt, sondern auch eine Lösung
angegeben ist.
2.5 Multiplikation von Matrizen 167

c) Der Isomorphismus ist gegeben


( durch)die Zuordnung
a −b
7→ a + ib ;
b a
das Nachrechnen ist dann nur noch eine Formalität.
Die Ergebnisse dieser Aufgabe ermöglichen es uns, die Multiplikation mit kom-
plexen Zahlen als Drehstreckungen in der Ebene zu sehen, bei der die x-Achse
den reellen Punkten und die y-Achse den imaginären Punkten entspricht (vgl.
auch 2.1.1 b)). Die Multiplikation mit i entspricht beispielsweise einer Drehung
um π2 gegen den Uhrzeigersinn. Zu dieser Darstellung der komplexen Zahlen
siehe auch [E], Kapitel 3, §2.5 und §5.
6. Um diese Aufgabe lösen zu können, müssen wir zuerst eine Topologie definie-
ren; wir wählen hierzu die Standard-Topologie oder metrische Topologie in den
Standard-Räumen Rm·n und Rm·k , die durch die Standard-Metrik induziert wird
(vgl. [O], Abschnitt 2.1 oder [C-V], 1.C, insbesondere Example 4). Für eine Ma-
trix B = (bi j ) ∈ M(n × k; R) und eine beliebige Matrix A = (ai j ) ∈ M(m × n; R)
n
gilt
A · B = (ci j ) mit ci j = ∑ ail bl j ,
l=1
d.h. die Einträge der Matrix A · B sind lineare Polynome Rm·n → R in den Un-
bestimmten ail . Diese sind bzgl. der Standard-Topologien in Rm·n und R selbst-
verständlich stetig. Wer das nicht glaubt, möge mit offenen Bällen in R und Rm·n
hantieren; dies ist eine Schlacht gegen die Indizes, bringt jedoch keine weiteren
Einblicke.
7. Ein
( mögliches)Beispiel( für rang)A + rang B − n = rang (AB) findet man für
0 0 Er 0
A= ,B= , und somit AB = (0), denn es gilt (n − r) +
0 En−r 0 0
r − n = 0. Die Schärfe der zweiten Abschätzung
rang(AB) = min{rangA, rangB}
liefert das Beispiel A = B = En , womit AB = En ist und min{n, n} = n.
8. Die hier beschriebene Methode ist die gängigste, um die Inverse einer Matrix
zu berechnen. Da das Verfahren für einige unserer LeserInnen neu sein wird,
führen wir die Rechnung ausführlich vor. Es ist zu empfehlen, in dieser Art der
Rechentechnik gewisse Fertigkeiten und Routine zu erlangen; das geht nur, wenn
man immer wieder viele Aufgaben rechnet. Zu diesem Zweck haben wir im Auf-
gabenteil dieses Buches im Anschluss an Abschnitt 2.7 einige invertierbare Ma-
trizen aufgeführt. Ihre Inversen befinden sich im Lösungsteil nach den Lösungen
der Aufgaben zu 2.7.
168 2 Lineare Abbildungen

Zunächst wollen wir allerdings die Behauptung beweisen. Tragen wir die
Vektoren ei als Spaltenvektoren in eine Matrix ein, so lautet sie in Matrizen-
schreibweise  
x11 · · · x1n
A ·  ... ..  = (e , · · · , e ) = E .
. 1 n n
xn1 · · · xnn
Daraus folgt jedoch sofort die Behauptung.
Nun kommen wir zur Berechnung der Inversen der angegebenen Matrix A.
Unsere Kürzel und Hieroglyphen zur Rechnung auf der folgenden Seite sollen
dabei folgende Bedeutung haben: Die römischen Ziffern am rechten Rand be-
zeichnen die Zeilenumformung, aus der diese Zeile der beiden Matrizen entstan-
den ist. Z.B. heißt II − 2 · I, dass das Doppelte der ersten Zeile von der zweiten
abgezogen wurde und an der Stelle dieser Notierung plaziert wurde. IIneu be-
deutet, dass mit der neuen zweiten Zeile, die gerade in diesem Schritt erst erstellt
wurde, gerechnet wurde.

1 1 2 4 1 0 0 0
1 3 4 −2 0 1 0 0
0 1 3 6 0 0 1 0
1 3 5 3 0 0 0 1
1 1 2 4 1 0 0 0
0 2 2 −6 −1 1 0 0 II − I
0 1 3 6 0 0 1 0
0 2 3 −1 −1 0 0 1 IV − I
1 1 2 4 1 0 0 0
0 1 3 6 0 0 1 0 III
0 0 −4 −18 −1 1 −2 0 II − 2 · III
0 0 1 5 0 −1 0 1 IV − II
1 1 2 4 1 0 0 0
0 1 3 6 0 0 1 0
0 0 1 5 0 −1 0 1 IV
0 0 0 2 −1 −3 −2 4 III + 4 · IV
1 1 2 0 3 6 4 −8 I − 4 · IVneu
0 1 3 0 3 9 7 −12 II − 6 · IVneu
0 0 1 0 2.5 6.5 5 −9 III − 5 · IVneu
0 0 0 1 −0.5 −1.5 −1 2 0.5 · IV
1 1 0 0 −2 −7 −6 10 I − 2 · IIIneu
0 1 0 0 −4.5 −10.5 −8 15 II − 2 · IIIneu
0 0 1 0 2.5 6.5 5 −9
0 0 0 1 −0.5 −1.5 −1 2
2.5 Multiplikation von Matrizen 169

1 0 0 0 2.5 3.5 2 −5 I − II
0 1 0 0 −4.5 −10.5 −8 15
0 0 1 0 2.5 6.5 5 −9
0 0 0 1 −0.5 −1.5 −1 2
Die gesuchte inverse Matrix ist also
 
5 7 4 −10
 −9 −21 −16 30 
0.5 · 
10 −18 
,
5 13
−1 −3 −2 4
was man sich immer durch eine Probe bestätigen sollte.
9. a) Sei A = (ai j )16i6m;16 j6n und x = t (x1 , . . . , xn ). Dann gilt
 n 

 k=1
a1k xk

 
Ax = 

..
. .

 n 
∑ amk xk
k=1

Die zugehörige Jacobi-Matrix hat an der Stelle (i, j) den Eintrag


∂ n n
∂ n

∂ x j k=1
aik xk = ∑ aik
∂xj
xk = ∑ aik δ jk = ai j .
k=1 k=1

Hierbei bezeichnen wir wie in der Lösung von Aufgabe 4 a) zu 2.5 δi j das Kron-
ecker-Symbol. Die Jacobi-Matrix der Abbildung x 7→ Ax ist also A selbst, wie es
für eine lineare Abbildung zu erwarten war.
b) Wir betrachten nun die Abbildung
n
P : Rn → R , (x1 , . . . , xn ) 7→ ∑ ai j xi x j + ∑ bi xi .
i6 j i=1

Die Jacobi-Matrix von P ist ein Element von M(1 × n; R) und hat an der k-ten
Stelle den Eintrag
( ) ( )
n j
∂ n
∂ n
∑ ai j xix j + ∑ bixi = ∂ xk ∑ ∑ ai j xix j + ∑ bixi
∂ xk i6 j i=1 j=1 i=1 i=1
j
n
∂ n

= ∑ ∑ ai j ∂ xk xix j + ∑ bi ∂ xk xi
j=1 i=1 i=1 | {z }
=δik
170 2 Lineare Abbildungen


(Dabei kann ∂ xk xi x j nur dann ̸= 0 sein, wenn i = k oder j = k ist.)

k
∂ n

= ∑ aik ∂ xk xixk + ∑ ak j
∂ xk
xk x j + bk
i=1 j=k+1
k−1
∂ ∂ 2
= ∑ aik xi xk + akk x
i=1 ∂ x k ∂ xk k
n

+ ∑ ak j xk x j + bk
j=k+1 ∂ xk
k−1 n
= ∑ aik xi + 2akk xk + ∑ ak j x j + bk .
i=1 j=k+1

Die Hesse-Matrix von P hat n Spalten und n Zeilen, und an der Stelle (l, k) den
Eintrag ( )
∂ k−1 n
∑ ik i kk k ∑ k j j k
∂ xl i=1
a x + 2a x + a x + b
j=k+1
k−1
∂ ∂ n

= ∑ aik ∂ xl xi + 2akk ∂ xl xk + ∑ ak j
∂ xl
xj .
i=1 j=k+1

Im Fall l < k ist dieser Term alk , im Fall l = k ist er 2akk = 2all . Falls aber l > k
ist, ist er akl . Somit haben wir
 
2a11 a12 a13 ··· a1n
 a .. . 
.
 21 2a22 . . 
 .. .. .. .. 
Hessx P =  a31 . . . .  .
 
 ... ..
.
..
. 
an−1,n
an1 · · · · · · an,n−1 2ann

Zum Ende dieses Abschnitts erlauben wir uns noch drei Bemerkungen:
i) Im Zeitalter des Computers werden Jacobi- und Hesse-Matrizen nur noch
in seltenen Fällen von Hand berechnet. Computer-Algebra-Systeme stellen
effektive Algorithmen hierfür zur Verfgung, vgl. [B-M], §29.
ii) Die Hesse-Matrix tritt in der Analysis bei der Untersuchung der Extremwerte
von Funktionen auf, vgl. [Fo2], §7.
2.5 Multiplikation von Matrizen 171

iii) Mit Hilfe der Determinante der Hesse-Matrix kann man für eine ebene al-
gebraische Kurve (das ist die Nullstellenmenge eines Polynoms in zwei
Veränderlichen) die sogenannte Hesse-Kurve erklären, die die Wendepunkte
der Kurve liefert (vgl. [Fi2], 4.4–4.6).
Lösungen der Ergänzungsaufgaben
(k−1)
E1. Wir bezeichnen die Einträge der Matrix M k−1 mit mi j . Es ergibt sich die
rekursive Formel
 3 n−k

(k−1) (k−1)
 0 · · · 0 1 k j=1 ∑ m1,k+ j ··· ∑ m1,k+ j 
 j=1 
 .. .. .. .. .. .. 
 . . . . . . 
 
k  .. .. . .. 3 (k−1) 
M = . . .. . ∑ m1,k+ j  ,
 
 j=1 
 .. .. .. 
 . . . k 
 
0 ··· 0 1
0 0 0
wobei die ersten k Spalten und die letzten k Zeilen 0 sind. Daraus bestimmen wir
die Matrizen
 
0 0 1 2 3 ··· n−2
 .. .. .. .. .. 
 . . . . . 
 
 . .
.. .. .. .
3 
 
 .. .. .. 
M2 =  . . . 2 
 
 .. .. 
 . . 1 
 
 0
..
. 0 
0
und  
(n−2)(n−3)
0 0 0 1 3 6 ··· 2
 .. .. .. .. .. .. .. 
 . . . 0 . . . . 
 
 .. .. .. .. .. .. 
 . . . . . . 6 
 .. .. .. .. 
M3 =  .
..
 . . . . . 3 
 .. .. .. .. 
 . . . . 1 
 
 0 ··· ··· ··· ··· ··· ··· 0 
 0 ··· ··· ··· ··· ··· ··· 0 
0 ··· ··· ··· ··· ··· ··· 0
172 2 Lineare Abbildungen

E2. Ist A · B symmetrisch, so gilt

A · B = t (A · B). ~

Nach der Regel 4) aus 2.5.4 gilt


t
(A · B) = t B · t A, ~~

und da A, B symmetrisch sind, gilt tA


= A und = B, womit aus ~ und ~~
tB

A · B = B · A folgt.
Gilt A · B = B · A, so folgt aus der Symmetrie von A und B

A · B = B · A = t B · t A = t (A · B), d.h. A · B ist symmetrisch.

E3. Da sich in heutiger Zeit Rechnungen gut mit CAS oder GTR überprüfen
lassen und es sich hier lediglich um geradlinige Berechnungen handelt, wur-
den die Lösungen hier nicht notiert. Eine Freeware eines CAS ist beispielsweise
wxMaxima.
E4. Der Nachweis wird per Induktion über k geführt. Der Fall k = 1 lautet

A1 · B − B · A1 = E · (AB − BA) = 1 · A0 (AB − BA).

Für k = 2 erhält man

2 · A · (A · B − B · A) = A · (A · B − B · A) + A · (A · B − B · A)
~
= A · (A · B − B · A) + (A · B − B · A) · A
= A2 B − ABA + ABA − BA2 = A2 B − BA2 .

Hierbei wurde an der Stelle ~ die Voraussetzung benutzt.


Der Induktionsschritt k → k + 1 ergibt sich mit

(k + 1) · Ak (AB − BA) = k · A(k (AB − BA) + Ak (AB


) − BA)
= A · k · Ak−1 (AB − BA) + Ak (AB − BA)
~~
= A · (Ak B − BAk ) + (AB − BA)Ak
= Ak+1 B − ABAk + ABAk − BAk+1
= Ak+1 B − BAk+1 .

Hierbei wurden an der Stelle ~~ die Induktionsannahme und die Voraussetzung


(k-mal) verwendet.
Damit ist die Behauptung bewiesen.
2.6 Koordinatentransformationen 173

2.6 Koordinatentransformationen
1. Zu zeigen ist TCA = TCB · TBA . Wir müssen diese Gleichheit unter Bezug
auf die in 2.6.2 beschriebene Eigenschaft der Transformationsmatrizen zei-
gen. Zunächst legen wir einige Bezeichnungen fest. Es seien A = (v1 , . . . , vn ),
B = (w1 , . . . , wn ) und C = (u1 , . . . , un ) drei Basen des n-dimensionalen Vektor-
raums V . Desweiteren sei v ∈ V mit
n n n
v = ∑ xi vi = ∑ y j w j = ∑ zk uk .
i=1 j=1 k=1
Die Voraussetzungen können wir nun als
       
y1 x1 z1 y1
(i) :  ..  = TB  ..  und (ii) :  ..  = TC 
. A . . B .. 
.
yn xn zn yn
schreiben. Die Behauptung lautet analog
   
z1 x1
 ...  = TCB · TBA  ...  ,
zn xn
denn TCB · TBA soll Koordinaten von A nach C transformieren. Diese Aussage
lässt sich nach all der Vorarbeit nun verhältnismäßig leicht nachrechnen:
     
z1 y1 x1
(ii) (i)
 ...  = TCB  ...  = TCB · TBA  ...  ,
zn yn xn
was zu beweisen war.
2. In dieser Aufgabe soll nun das bisher theoretisch erworbene Wissen auf einen
konkreten Fall angewendet werden. Als kleine zusätzliche Schwierigkeit sind
die Vektoren hier als Zeilen geschrieben, daher müssen alle Matrizen transpo-
niert werden, was wir jedoch einfach meistern werden.
a) Wegen TBA = MB A (id) berechnen wir die Koordinaten der Basisvektoren aus

A bzgl. der Basis B. Aufgrund der in 2.6.2 beschriebenen Eigenschaft von


Transformationsmatrizen liefert dies die Spalten von TBA . Es gilt
(1, −1, 2) = 1 · (1, 2, 2) + 6 · (−1, 3, 3) − 3 · (−2, 7, 6) ,
(2, 3, 7) = 2.6 · (1, 2, 2) + 8.6 · (−1, 3, 3) − 4 · (−2, 7, 6) ,
(2, 3, 6) = 2.4 · (1, 2, 2) + 6.4 · (−1, 3, 3) − 3 · (−2, 7, 6) ,
und damit ( )
1 2.6 2.4
A
TB = 6 8.6 6.4 .
−3 −4 −3
174 2 Lineare Abbildungen

b) Die gesuchten Koordinaten erhalten wir nun schnell durch


( ) ( )( ) ( )
2 1 2.6 2.4 2 6.2
A
TB · 9 = 6 8.6 6.4 9 = 38.2 .
−8 −3 −4 −3 −8 −18
Zur Probe bestätigen wir
2 · (1, −1, 2) + 9 · (2, 3, 7) − 8 · (2, 3, 6) = (4, 1, 19)
= 6.2 · (1, 2, 2) + 38.2 · (−1, 3, 3) − 18 · (−2, 7, 6) .

3. a) Die Behauptung folgt direkt aus dem Austauschsatz aus 1.5.4. Wir erhalten
die Transformationsmatrizen quasi geschenkt, nämlich
 
1 1 −1 1 1  
1 0 0 0
 0 1 0 0 0 
′   ′  1 1 0 0 
TBB =  0 0 1 0 0  und TAA = 
0 1 1 0 
.
 0 0 0 1 0 
0 0 1 1
0 0 0 0 1
Beide Matrizen haben vollen Rang, und nach dem Austauschsatz sind A ′ bzw.
B ′ daher Basen von V bzw. W .
b) Wir berechnen durch Invertieren (siehe Aufgabe 8 zu 2.5) die Matrix
 
1 −1 1 −1 −1
 0 1 0 0 0 
 
TBB′ =  0 0 1 0 0 .
 0 0 0 1 0 
0 0 0 0 1
Mit Hilfe der Transformationsformel aus 2.6.5 errechnen sich die gesuchten Ma-
trizen wie folgt:
 
4 −1 0 2
 −4 5 4 −3 
A′ A ′  
MB = MB (F) · TAA =  4 3 4 1 ,
 4 15 16 4 
 4 −13 −12 5
8 −4 −1 −3
 −2 −2 7 −3 
A B A  
MB ′ = TB ′ · MB (F) =  4 0 3 1 ,
 1 3 12 4 
0 4 −17 5 
4 −5 −4 −3
 −4 5 4 −3 
A′ B A A′ B A′  
MB ′ = TB ′ · MB (F) · TA = TB ′ · MB (F) =  4 3 4 1 .
 4 15 16 4 
4 −13 −12 5
2.6 Koordinatentransformationen 175

c) Zur Berechnung von F −1 (span (w1 , w2 , w3 )) müssen wir die Lösung von
A
MB (F)x = t (a, b, c, 0, 0) ,
für beliebige a, b, c ∈ R finden. v1 + 5v2 − 4v4 ist eine Basis des Kerns von
F, und damit ist span (v1 + 5v2 − 4v4 ) in jedem Urbild unter F enthalten. Ei-
ne einfache Rechnung ergibt, dass weiterhin genau die Vielfachen des Vektors
−99v1 + 17v2 + 4v3 im Urbild von span (w1 , w2 , w3 ) liegen, da sich einige Be-
dingungen an a, b, c stellen (nämlich a = −1.5b und c = −2b), um das lineare
Gleichungssystem lösen zu können. Somit ist
F −1 (span (w1 , w2 , w3 )) = span (v1 + 5v2 − 4v4 , −99v1 + 17v2 + 4v3 ) .

4. Seien A, B ∈ M(m × n; K). Wir betrachten die Relation


A ∼ B ⇔ A und B sind äquivalent .
Nach Definition bedeutet dies gerade, dass S ∈ GL(m; K) und T ∈ GL(n; K) exis-
tieren mit B = SAT −1 . Wir wollen nun zeigen, dass ∼ eine Äquivalenzrelation
ist, wie es die Bezeichnung äquivalent“ vorwegnimmt. Die Reflexivität A ∼ A

erhalten wir durch A = Em · A · En−1 . Die Transitivität weisen wir wie folgt nach:
Seien A ∼ B und B ∼ C, d.h. B = SAT −1 und C = XBY −1 mit geeigneten Matri-
zen S, T, X,Y . Dann gilt auch
C = XBY −1 = X(SAT −1 )Y −1 = (XS) · A · (Y T )−1 ,
also A ∼ C. Die Relation ist auch symmetrisch, denn aus B = SAT −1 folgt
A = S−1 BT = (S−1 ) · B · (T −1 )−1 . Für Matrizen quadratischer Größe und die
Ähnlichkeitsrelation geht der Beweis analog.
5. Wir betrachten eine lineare Abbildung, die durch eine Matrix A ∈ M(n × n; R)
mittels x = (x1 , . . . , xn ) 7→ x · A (der Vektor x ist in Zeilenform gegeben) defi-
niert ist. Hierbei ist die Multiplikation wie in Abschnitt 2.5 definiert. Analog zu
Abschnitt 2.4 kann nachgewiesen werden, dass hierdurch lineare Abbildungen
definiert werden. Damit werden wir Ker A = Ker (A · t A) zeigen, und mit Hilfe
von Satz 2.2.4 folgt daraus dimA = dim(A · t A), denn sowohl A als auch A · t A
können als lineare Abbildungen V → V mit V = Rn betrachtet werden.
Ist nun ein x ∈ Rn gegeben mit xA = 0, so folgt unmittelbar xA · t A = 0, also
Ker A ⊂ Ker (A · t A).
Um die Inklusion Ker A ⊃ Ker (A · t A) zu zeigen, wählen wir ein x ∈ Rn mit
xA · t A = 0, woraus folgt
0 = xA · t At x = (xA) · t (xA) . (∗)
Setzen wir nun y = (y1 , . . . , yn ) := xA, so folgt aus (∗)
0 = y · t y = y21 + . . . + y2n = 0 ,
176 2 Lineare Abbildungen

womit wegen K = R gerade y1 = · · · = yn = 0 folgt, d.h. 0 = y = xA, was zu


zeigen war.
Nun kann man schon erahnen, woran die Aussage über C scheitert. Im Körper
der komplexen Zahlen ist die Summe über Quadrate von Zahlen ungleich 0 nicht
notwendig ungleich 0. Ein Gegenbeispiel ist
 
1 i
0
A= 1 i  ∈ M(n × n; C) ,
0 0
denn in diesem Fall ist A · t A die Nullmatrix und hat Rang 0, A hat jedoch den
Rang 1.

2.7 Elementarmatrizen und Matrizenumformungen


1. Die Darstellung von A als Produkt von Elementarmatrizen, die wir angeben,
ist keineswegs eindeutig. Wir haben sie durch zweimaliges Invertieren von A mit
dem üblichen Verfahren und durch das Notieren der Umformungen erhalten. Es
gilt
A = S2 (−1) · S1 (−1) · Q21 (2) · Q31 · Q32 (−1) · Q23 (3) · P32 · Q12 (2) · P21 .

2.  −1  
0 0 0 1 0 0 0 1
 0 0 1 0   0 0 1 0 
 0 1 0 0  = 
0 1 0 0 
1 0 0 0 1 0 0 0
 −1  
6 3 4 5 −1 −21 6 7
 1 2 2 1  1  −1 −9 6 1 
 2 4 3 2  = 6 0 12 −6 0 
3 3 4 2 3 21 −6 −9
( )−1 ( )
1 2 0 1 −2 2
1 1 1 = 1
3 1 1 −1
2 0 1 −2 4 −1
Als Element von M(3×3; Z/3Z) ist diese letzte Matrix jedoch nicht invertierbar,
weil sie nur Rang zwei hat.
3. Wir versuchen, A auf die herkömmliche Weise zu invertieren, und beobachten,
welche Bedingungen sich an a, b, c und d stellen. Eine solche Rechnung zeigt,
dass die einzig mögliche inverse Matrix
( )
1 d −b
·
ad − bc −c a
lauten müsste, die nur genau dann existieren kann, wenn ad − bc ̸= 0 gilt.
2.7 Elementarmatrizen und Matrizenumformungen 177

An dieser Stelle sei auch auf das folgende Kapitel über Determinanten ver-
wiesen, denn det A = ad − bc.
4. Benutzt man die Inversen der Elementarmatrizen aus 2.7.2, so ist mit den
Bezeichnungen in 2.7.6 S−1 gegeben durch B−1 −1
1 · . . . · Bk , denn
Bk · . . . · B1 · Em · B−1 −1
1 · . . . · Bk = Em .
Da Inverse von Elementarmatrizen nach 2.7.2 einfach zu bestimmen sind, kann
das Verfahren folgendermaßen modifiziert werden:

Em A
Em · B−1
1 B1 · A
.. ..
. .
Em · B−1 −1
1 · . . . · Bk Bk · . . . · B1 · A

Dabei ist die Bearbeitung beendet, wenn Bk · . . . · B1 · A Zeilenstufenform hat. Der


Rest des Verfahrens bleibt unberührt.
5. i) Für die Matrix
( ) ( )
1 1 1 −6
A= 1 2 3 und b= −10
2 3 6 −18
erhalten wir ( )
1 1 1
à = 0 1 2 .
0 0 2
Die Transformationsmatrix lautet
( )
1 0 0
S = Q23 (−1) · Q13 (−2) · Q12 (−1) = −1 1 0 ,
−1 −1 1
und es gilt ( )
−6
b̃ = S · b = −4 .
−2
ii) Nun betrachten wir die Matrix
   
1 −1 2 −3 7
 4 0 3 1   9 
A=
0 
b=
−2 
und .
2 −5 1
3 −1 −1 2 −2
178 2 Lineare Abbildungen

Durch elementare Zeilenumformungen bringen wir A auf Zeilenstufenform


 
1 −1 2 −3
 0 4 −5 13 
à = 
0 27 −63 
.
0
0 0 0 24
Dabei erhalten wir die Transformationsmatrix
S = Q34 (− 23 ) · S4 (−4) · S3 (−4) · Q24 (− 21 )
·Q23 ( 34 ) · Q14 (−3) · Q13 (−2) · Q12 (−4)
 
1 0 0 0
 −4 1 0 0 
=  20 −3 −4 0 ,
− 28
3 4 3 −4
8

und es ergibt sich b̃ = S · b = t (7, −19, 121, − 80


3 ).
6. a) Wir zeigen die erste der angegebenen Gleichheiten, der zweite Beweis
verläuft ganz analog. Es gilt
m−1 m−1 m−1
(En − A) ∑ Ai = ∑ Ai − ∑ Ai+1
i=0 i=0 i=0
m−1 m−1
= A0 + ∑ Ai − ∑ Ai − Am
i=1 i=1
= A0 − Am = En − Am .
Diese soeben durchgeführte Umformung ist aus der elementaren Analysis be-
kannt, wo die Vorteile einer Teleskopsumme öfter benutzt werden.
b) Sei A ∈ M(n × n; K) mit Am = (0). Solche Matrizen nennt man nilpotent (vgl.
Aufgabe 5 zu 2.1). Zum Beispiel sind echte obere Dreicksmatrizen stets nilpo-
tent, wie wir in Aufgabe 2 c) zu Abschnitt 2.5 gezeigt haben. Sei m minimal mit
Am = (0); nach a) gilt dann
m−1
En = En − Am = (En − A) ∑ Ai ,
i=0

d.h. En − A ist invertierbar mit inverser Matrix ∑m−1 i


i=0 A .
2.7 Elementarmatrizen und Matrizenumformungen 179

Lösungen der Ergänzungsaufgaben


E1. Rechenergebnisse lassen sich mit GTR oder CAS überprüfen. Daher sind die
Lösungen hier nicht notiert.
E2. Teil a) lässt sich durch simple Rechnung nachweisen, die analog zur Rech-
nung in Abschnitt 2.5.2 in [Fi1] verläuft.
Ergebnisse von Teil b) lassen sich mit GTR oder CAS berechnen. Hierbei ist
lediglich zu bedenken, dass die Vektoren vielleicht in Zeilenform eingegeben
werden müssen.
c) Die Multiplikation lässt sich notieren durch (ai j ) · (bi j ) = (ci j ). Für c11 gilt
damit n
c11 = ∑ a1i · bi1 ,
i=1
und die c1 j lauten analog n
c1 j = ∑ a1i · bi j .
i=1
Dies lässt sich verallgemeinern auf
n
ci j = ∑ aik · bk j .
k=1

E3. a) ( )
5 10
p(A) = ,
15 20
b) ( )
52 −70
p(A) = ,
−42 66
c) ( )
−16 −43 2
p(A) = 92 79 32 .
12 20 3
E4. Nach Aufgabe 2 in Abschnitt 2.2 ist d linear. Daher reicht es aus, die Be-
hauptung für die Basis B zu(zeigen.)Hier gilt
(p ◦ d)(sin) = d(2 + id (sin)
) = − sin + sin = 0 und
(p ◦ d)(cos) = d 2 + id (cos) = − cos + cos = 0 .
Damit ist die Behauptung bewiesen.
E5. Es sei p(t) = ∑ni=0 ait i = ant n + an−1t n−1 + . . . + a1t 1 + a0 .
Der Beweis erfolgt per Induktion über den Grad n = deg(p) von p.
n = 0: Es ist F = idV , nach 2.4.4 in [Fi1] gilt MB (idV ) = En . In diesem Fall
ist p(t) = a0 , und es folgt
MB (p(F)) = MB (a0 · idV ) = a0 · MB (idV ) = a0 · En = p(A) .
180 2 Lineare Abbildungen

n → n + 1: Mit Hilfe der Linearität der Abbildung MB an den Stellen (1) und
der Induktionsannahme an der Stelle (2) in der folgenden Rechnung ergibt sich
( )
MB p(F) = MB (an F n + an−1 F n−1 + . . . + a1 F 1 + a0 idV )
(1)
= MB (an F n ) + MB (an−1 F n−1 + . . . + a1 F 1 + a0 idV )
(1)
= an MB (F n )MB (F n−1 ) + MB (an−1 F n−1 + . . . + a1 F + a0 idV )
(2)
= an A · An−1 + (an−1 An−1 + . . . + a1 A + a0 En )
= an An + . . . + a1 A + a0 En = p(A) .

E6. Es sei N := n2 . Wir betrachten


( die Endomorphismen
) idV , F, F 2 , . . . , F N .
Erinnern Sie sich, dass dim End (V ) = N = n gilt, da man die (n × n)-
2

Matrizen als N-Vektoren und die Multiplikation von Matrizen mit Elementen
des als skalare Multiplikation betrachten kann. Damit sind idV , F, F 2 , . . . , F N li-
near abhängig, und es existieren aN , aN−1 , . . . , a1 , a0 ∈ K (nicht alle gleich Null)
mit
aN F N + aN−1 F N−1 + . . . + a1 F + a0 idV = 0 .

N
Damit ist F eine Nullstelle von p(t) = ∑ ai · t i .
i=0
Achtung! Es handelt sich nicht notwendig um das Polynom des geringsten Gra-
des, das diese Bedingung p(F) = 0 erfüllt.

E7. (1) Der Beweis lässt sich per Induktion über n notieren.
Gegeben sei ein Polynom p ∈ K[t] mit
k
p(t) = ∑ bit i = bnt n + bk−1t k−1 + . . . + b1t + b0 .
i=0

Aufgrund der Rechengesetze des Vektorraums der Matrizen über K reicht es aus,
die Behauptung für p(t) = t k zu zeigen.
Für die Matrix A1 gilt dann für k = 2, d.h. p(t) = t 2 ,
 2  2   
a1 0 a1 0 p(a1 ) 0
p(A1 ) = A21 =  ...  = ... = 0 ...
0 .
0 an 0 a2n 0 p(an )
2.7 Elementarmatrizen und Matrizenumformungen 181

Für den Schritt k → k + 1 nehmen wir


 k+1  k  
a1 0 a1 0 a1 0
A1
k+1
=  . ..  = ..
.  · .
.. 
0 an 0 an 0 an
     k+1 
ak1 0 a1 0 a1 0
(♢)  ..   .. = ... 
=  . · .  
0 akn 0 an 0 ank+1
 
p(a1 ) 0
=  ... 
0 p(ak )
An der Stelle (♢) wurde die Induktionsvoraussetzung verwendet. Damit gilt
   
a1k+1 0 p(a1 ) 0
 
. = . ,
k
p(A1 ) = A1 =  .. ..
0 ank+1 0 p(an )
was zu zeigen war.
(2) Diese Behauptung lässt sich auf den Teil a) zurückführen. Analog zu Teil a)
beschränken wir uns auf den Fall p(t) = t k . Für A2 gilt
   
a1 ∗ 0 ∗
A2 =  . ..  = A1 +  . .. .
0 an 0 0
Der Fall k = 1 ist klar. Wir betrachten zusätzlich den Fall k = 2, um die Rechnung
genauer zu betrachten. Hier gilt
  2
0 ∗
A2 = A1 + 
2 . .. 
0 0
     2
0 ∗ 0 ∗ 0 ∗
= A1 + A1 
2 . .. + ..
.  A1 +  ..
.  .
0 0 0 0 0 0
| {z } | {z } | {z }
(1) (2) (3)

A21 erfüllt nach Teil a) bereits die Voraussetzungen. (1) ergibt


    
a1 0 0 ∗ 0 ~
 ..
.  ..
. = ..
. ,
0 an 0 0 0 0
182 2 Lineare Abbildungen

 
0 ∗
da in der Diagonale und darunter von  .  ausschließlich die Null
..
0 0
steht, vgl. hierzu auch [Fi1], Abschnitt 2.5.2. Analoge Überlegungen führen zu
den Ergebnissen für (2) und (3).
Für den Schritt k → k + 1 schreiben wir
  
ak1 ~ a1 ∗
(♢)  
= A2 · A2 =  .  . 
k+1 k .. ..
A2
0 akn 0 an
   
ak1 0 0 ~
 ...   ... 
=  + 
0 akn 0 0
   
a1 0 0 ∗
·  ... + ...  .
0 an 0 0

An der Stelle (♢) wurde die Induktionsannahme benutzt. Multipliziert man diese
Klammern aus, so ergibt sich
    k  
ak1 0 a1 0 a1 0 0 ∗
   
 . ..  . .. + . ..  . .. 
0 akn 0 an 0 akn 0 0
| {z } | {z }
(a) (b)

     
0 ~ a1 0 0 ~ 0 ∗
+ ..
.  ..
. + ..
.  ..
. .
0 0 0 an 0 0 0 0
| {z } | {z }
(c) (d)

Analog zu Teil a) folgt die Behauptung für (a) und (b). Die Produkte (c) und (d)
führen zu Ergebnissen, deren Diagonalelemente gleich Null sind. Damit gilt es
auch für die Summe dieser Produkte (c) und (d), womit die Behauptung folgt,
wenn man p(ai ) = aik+1 berücksichtigt.
An den Berechnungen zeigt sich auch, dass ∗ ̸= ~ sein kann.
2.7 Elementarmatrizen und Matrizenumformungen 183

E8. a) Die Matrix A lässt sich wie folgt zerlegen:


 
A1 0
A =  ..
. 
0 An
   
A1 0 0 0
 0   
   A2

 ..   0 +...
=  . + 
 ..   .. 
 .  .
0 0 0 0
| {z } | {z }
M1 M2
 
0 0
 .. 
 . 
 
+ .. .
 . 
 0 
0 An
| {z }
Mn

Es gilt Mi · M j = 0 für alle i ̸= j. Daher können wir uns auf Potenzen Mik be-
schränken. In diesem Fall lassen sich die Ergebnisse aus Aufgabe E7 anwenden,
denn es gilt  
0 0
 ... 
 
 0 
 
Mik =   A k
i
,

 0 
 
 ..
. 
0
und auf Aki lassen sich die Ergebnisse aus Aufgabe E7 anwenden, womit sich die
Behauptung ergibt.
Schlüsse in Aufgabenteil b) verlaufen analog zu Aufgabe E7 b).
Kapitel 3
Determinanten

3.1 Beispiele und Definitionen


1. Die Determinanten betragen 4 bzw. 18 (vgl. auch Aufgabe E2 zu 3.3).
2. Bei der folgenden Rechnung haben wir stets angegeben, welche Eigenschaft
der Determinante wir verwendet  haben: 
( )
x 1 1 0 1 − x 1 − x2
= det  0 x − 1 1 − x 
D7
det 1 x 1
1 1 x 1  1 x

1 1 x ( )
x−1 1−x
= − det  0 x − 1 1 − x  = − det(1) · det
D6 D9
1−x 1−x 2
0 1 − x( 1 − x2 )
D4 1 −1
= −1 · (x − 1)2 · det
( −1 −x − 1)
D7 1 −1 D8
= −1 · (x − 1) · det
2 = (x − 1)2 (x + 2) .
0 −x − 2
 2 
a +1 ab ac
det  ab b2 + 1 bc 
ac bc c2 + 1
 2 
a +1 ab ac
D7  −a b2 2
+ b2 + 1 −a bc
2
+ bc 
= det  0 a2 +1 a2 +1 
−a2 bc −a2 c2
0 a2 +1
+ bc a2 +1
+ c2 + 1
( )
−a b
2 2 −a bc
2
D9 + b2 + 1 + bc
= (a2 + 1) · det a2 +1
−a2 bc
a2 +1
−a2 c2
a2 +1
+ bc a2 +1
+ c2 + 1
(∗)
[( 2 2 )( 2 2 )
= (a2 + 1) −a 2
a +1
b
+ b 2+1 −a c
2
a +1
+ c 2+1
( 2 )( 2 )]
− −a bc
a2 +1
+ bc −a bc
a2 +1
+ bc
= a2 + b2 + c2 + 1 ,
wobei an der Stelle (∗) das Ergebnis aus Beispiel 3.1.4 b) benutzt wurde.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_11
3.1 Beispiele und Definitionen 185

 
3. sin α cos α

 − cos α sin α 
 
det  1 
 a b 
0
−b a
( ) ( )
D9 sin α cos α a b
= det · det(1) · det
− cos α sin α −b a
= (sin2 α + cos2 α ) · 1 · (a2 + b2 )
= a2 + b2 .

4. Sei A = (ai j ) und B = ((−1)i+ j ai j ). Ist m die große gerade Zahl 6 n, so gilt:
det B = det(Sm (−1) · Sm−2 (−1) · . . . · S4 (−1) · S2 (−1) · A
·S2 (−1) · S4 (−1) · . . . · Sm (−1))
D11
= (−1)m · det A = det A ,
weil m gerade ist. In dieser Rechnung bezeichnet Si (−1) dieselbe Elementarma-
trix wie in 2.7.1.
5. a) A sei eine alternierende quadratische Matrix mit ungerader Zeilen- bzw.
Spaltenanzahl ber einen Körper mit Charakteristik ̸= 2. Nach Satz 3.2.6 gilt
D4
det(A) = det( t A) = det(−A) = (−1)n · det(A) = − det(A) ,
weil n ungerade ist. Aus det A = − det A folgt det A = 0. Bei dieser letzten
Schlussfolgerung geht ein, dass der zugrundeliegende Körper Charakteristik ̸= 2
hat. In einen Körper der Charakeristik 2 gilt, wie den meisten unserer LeserInnen
sicher bekannt ist, x = −x für jedes Körperelement x.
b) Nach Beispiel 3.1.4 c) ist die Aussage für n = 2 und n = 4 klar. Wir beweisen
den Rest per Induktion nach n. Sei also die Matrix
 
0 a12 · · · ··· a1n
 −a .. .. .. 
 12 . . . 
 .. . . . . 
A= . .. .. .. .. 
 
 . . ..
.
..
. 
. an−1,n
−a1n · · · · · · −an−1,n 0
gegeben. O.B.d.A. ist a12 ̸= 0, denn sonst lässt sich durch Zeilen- und Spaltenver-
tauschungen (beide sind notwendig, um die Nullen in der Diagonale zu erhalten)
a12 ̸= 0 erreichen, falls ein a1i ̸= 0 existiert. Gilt a1i = 0 für alle i, so ist det A = 0,
und die Behauptung wäre sicher wahr. Wir unterteilen
186 3 Determinanten
 
0 a12 a13 · · · a1n
 −a12 0 a23 · · · a2n 
 
 .. 
A= . −a23 0 ∗ ,
 .. .. .. 
 . . . 
−a1n −a2n −∗ 0
( )
und addieren zunächst für i = 3, . . . , n zu der i-ten Zeile das −a 1i
a12 -fache der
zweiten Zeile. Das Ergebnis
 sieht so aus: 
0 a12 a13 · · · a1n
 −a12 0 a23 · · · a2n 
 
A′ =  0 −a23 ,
 . . 
 .. .. B 
0 −a2n
wobei in B an der Stelle i j der Eintrag
a1i
− · a2 j + ai j
a12
und speziell für i = j gerade a1i
− · a2i
a12
( )
steht. Nun addieren wir für i = 3, . . . , n das aa12 2i
-fache der ersten Zeile zur i-ten
Zeile und erhalten  
0 a12 a13 · · · a1n
 −a12 0 a23 · · · a2n 
 
A′′ = 
 .
0 0 ,

 .. . 
.. B′
0 0
wobei in B′ an der Stelle i j der Eintrag
a1i a2i
− · a2 j + ai j + · a1 j ~
a12 a12
und für i = j eben a1i · a2i a2i · a1i
− + =0
a12 a12

steht. B ist alternierend, und darauf können wir die Induktionsvoraussetzung
anwenden. Damit folgt det B′ = Q̃2 mit einem Polynom Q̃. Es ist jedoch zu be-
achten, dass es sich hierbei um ein Polynom in den Termen aus ~ und nicht in
den ai j handelt. Zunächst gilt
det A = det A′′ = a212 · Q̃2 = (a12 · Q̃)2 .
D9

Wir definieren Q := a12 · Q̃, womit det A = Q2 gilt.


3.1 Beispiele und Definitionen 187

Aus der Ergänzungsaufgabe E2 folgt, dass det A = Q2 ein Polynom in den ai j


ist und keine Quotienten wie in ~ enthält.
Damit ist det A also ein Polynom in den ai j . Es könnte jedoch sein, dass Q
Quotiententerme enthält, die sich beim Quadrieren aufheben. Nehmen wir an, es
existiert in einigen Termen ein Nenner d ̸= 1. Alle Terme, deren Nenner Teiler
von d sind, fassen wir zusammen zum Bruch dc . Nach eventuellem Kürzen ergibt
sich dc̃˜ mit teilerfremden Zahlen c̃ und d.˜ O.B.d.A. lässt sich d˜ ̸= 1 annehmen, da
ansonsten dc̃˜ ∈ Z gilt, und wir damit fertig sind. Die Summe der restlichen Terme
wird einfach mit b bezeichnet. Dann gilt

Q = b+ ,

woraus folgt
c̃ c̃2
Q2 = b2 + 2b · + 2
d˜ d˜
Hiermit hätte auch Q2 einen Term mit Nenner d˜2 ̸= 1, was ein Widerspruch zur
Voraussetzung ist.
Somit ist Q ein Polynom in den ai j , und es gilt det A = Q2 .
6. i) ⇔ ii): Es sei V der Vektorraum der f ∈ K[t] mit deg f < m + n. Dann sind
die Zeilen der Resultantenmatrix gerade die Komponenten der Vektoren
f ,t f , . . . ,t n−1 f , g,tg, . . . ,t m−1 g (∗)
bezüglich der Basis
1,t, . . . ,t m+n−1 von V .
Die lineare Abhängigkeit der Polynome in (∗) ist also gleichbedeutend mit
Res f ,g = 0.
ii) ⇒ iii): Die lineare Abhängigkeit der Polynome
f ,t f , . . . ,t n−1 f , g,tg, . . . ,t m−1 g
ist gleichbedeutend mit der Existenz von µ0 , . . . , µn−1 , λ0 , . . . , λm−1 ∈ K, die
nicht alle gleich 0 sind, so dass
µ0 f + µ1t f + . . . + µn−1t n−1 f + λ0 g + λ1tg + . . . + λm−1t m−1 g = 0
gilt. Da degt i f < degt j f und degt i g < degt j g für i < j gilt, sind
f ,t f , . . . ,t n−1 f linear unabhängig in K[t] und g,tg, . . . ,t m−1 g linear unab-
hängig in K[t]. Damit existieren mindestens ein λi ̸= 0 sowie mindestens ein
µ j ̸= 0. Mit den Definitionen
p := µn−1t n−1 + . . . + µ1t + µ0 und q := −λm−1t m−1 − . . . − λ1t − λ0
sind wir fertig, denn nach den vorausgegangenen Definitionen erfüllen p und q
die verlangten Bedingungen.
188 3 Determinanten

iii) ⇒ ii): Es seien


p = µn−1t n−1 + . . . + µ1t + µ0 und q = λm−1t m−1 + . . . + λ1t + λ0
mit p f = qg gegeben. Da p, q ̸= 0 gilt, existieren ein µi ̸= 0 sowie ein λ j ̸= 0. Es
folgt
0 = p f − qg
= µ0 f + µ1t f + . . . + µn−1t n−1 f − λ0 g − λ1tg − . . . − λm−1t m−1 g ,
also sind f ,t f , . . .t n−1 f , g,tg, . . . ,t m−1 g linear abhängig.
Wir zeigen nun noch die Äquivalenz der Aussagen iii) und iv). Die hierbei be-
nutzte Teilbarkeitstheorie von Polynomen findet sich z.B. in [Ku1]. Genauere
Hinweise geben wir im Verlauf der Lösung.
iii) ⇒ iv): Wir zerlegen die Polynome p, f , q, g in Primfaktoren
p = p1 · . . . · pk , f = f 1 · . . . · f r ,
q = q1 · . . . · ql und g = g1 · . . . · gs ;
dann schreibt sich die Gleichung p f = qg als
p1 · . . . · pk · f1 · . . . · fr = q1 · . . . · ql · g1 · . . . · gs ,
wobei auch Faktoren vom Grad 0 auftreten können. Aus der Eindeutigkeit der
Primfaktorzerlegung (vgl. [Ku1], Satz 4.21) folgt, dass bis auf Einheiten die
g1 , . . . , gs auch auf der linken Seite vorkommen. Da aber deg p < deg g ist, muss
mindestens ein gi vom Grad > 1 bis auf eine Einheit eines der fi und damit ein
Teiler von f sein.
iv) ⇒ iii): Ist h ein gemeinsamer nichtkonstanter Teiler von f und g, so gilt
f = f1 · h und g = g1 · h mit f1 , g1 ∈ K[t] .
Da h nicht konstant ist, gilt deg f1 6 m − 1 und deg g1 6 n − 1. Wir definieren
daher
p := g1 und q := f1 .

Schaut man sich die obigen Beweise genau an, so stellt man fest, dass die Be-
hauptungen im wesentlichen auch dann gelten, wenn der Körper K durch einen
faktoriellen Ring (siehe [Ku1], 4.III) ersetzt wird, vgl. hierzu auch Aufgabe 7 zu
3.2. Dies ermöglicht es, die Resultante auch von Polynomen mehrerer Veränder-
licher zu bestimmen, vergleiche hierzu etwa [Fi2], Anhang 1.
Ein wichtiger Spezialfall der Resultante ist die Diskriminante, die definiert
ist durch D f := Res f , f ′ , wobei f ′ die formale Ableitung von f ist (zum Begriff
formale Ableitung“ vergleiche die Lösung von Aufgabe 4 zu Abschnitt 1.3).

Auf diese Art kann geprüft werden, ob ein Polynom einen mehrfachen Primfak-
tor besitzt, denn dies ist äquivalent zu D f = 0. Vergleiche auch Ergänzungsauf-
gabe E1 zu diesem Abschnitt und Ergänzungsaufgabe E1 zu Abschnitt 3.2.
3.1 Beispiele und Definitionen 189

Lösungen der Ergänzungsaufgaben


E1. i) ⇒ ii): Hat f eine mehrfache Nullstelle, so existieren ein λ ∈ K und ein
g ∈ K[t] r 0 mit f = (t − λ )2 · g. Dann aber gilt f ′ = 2(t − λ ) · g + (t − λ )2 · g′ ,
also f ′ (λ ) = 0.
ii) ⇒ i) Es sei λ ∈ K die gemeinsame Nullstelle von f und f ′ . Aus Lemma
1.3.8 folgt die Existenz eines eindeutigen g ∈ K[t] r 0 mit f = (t − λ ) · g. Dann
gilt f ′ = g + (t − λ ) · g′ , und wegen f ′ (λ ) = 0 ist

0 = g(λ ) + (λ − λ ) · g′ (λ ) = g(λ ) .

Wiederum nach Lemma 1.3.8 existiert ein g̃ ∈ K[t] r 0 mit g = (t − λ ) · g̃, also
f = (t − λ )2 · g̃, und f hat eine mehrfache Nullstelle.
Nun widmen wir uns der dritten Eigenschaft. Nach Aufgabe 6 gilt D f = 0 genau
dann, wenn f und f ′ einen gemeinsamen nichtkonstanten Teiler h ∈ C[t] haben,
d.h.
f = h·g und f ′ = h · g̃ .

Da jedes Polynom vom Grad > 1 über den komplexen Zahlen nach dem Fun-
damentalsatz der Algebra (vgl. 1.3.9) mindestens eine Nullstelle hat, folgt die
Äquivalenz von ii) und iii).
E2. Bei dieser Lösung benutzen wir die Bezeichnung
n
ai = (ai1 , . . . , ain ) = ∑ ai j · e j ,
j=1

wobei (e1 , . . . , en ) die kanonische Basis des K n darstellt. Im Folgenden wenden


wir (D1) a) und b) an und erhalten
 
  a11 e1 + . . . + a1n en
a1
 a2 
det A = det  ...  = det   .. 

.
an
a
   n 
a11 e1 a1n en
 a2   a2 
= det   
 ...  + . . . + det  ... 

an an
190 3 Determinanten

   
e1 en
 a2   a2 
= a11 · det   
 ...  + . . . + a1n · det  ... 

an an
 
ei1
n  a2 
= ∑ a1i1 · det  
 ...  .
i1 =1
an
Führen wir diesen Schritt für jede Zeile durch, so erhalten wir
 
n n n ei1
det A = ∑ ∑ · · · ∑ a1i1 · . . . · anin · det  ...  ~
i1 =1 i2 =1 in =1 ein
 
ei1
Wenn wir zeigen können, dass det  ..  ∈ {−1, 0, 1} gilt, sind wir fertig.
.
ein
Nehmen wir daher an, dass die Determinante ungleich null ist. Dies ist gleich-
bedeutend mit der linearen Unabhängigkeit von (ei1 , . . . , ein ). Aufgrund von
dimK n = n bedeutet dies, dass (ei1 , . . . , ein ) bis auf ihre Vorzeichen die kano-
nische 
 Basis von K n bilden. Durch l-maligen Zeilenvertausch in der Matrix
ei1
 ...  können wir diese somit in die Einheitsmatrix En überführen, für die
ein
det En = 1 gilt. Mit Hilfe von (D6) folgt daher
 
ei1
det  ..  = (−1)l ,
.
ein
daher können wir ~ umformulieren zu
n n n
det A = ∑ ∑ · · · ∑ (−1)l · a1i1 · . . . · anin ,
i1 =1 i2 =1 in =1
womit wir fertig sind.
Bemerkung: Ähnliche Überlegungen befinden sich allgemeiner formuliert in Ab-
schnitt 3.2.
3.2 Existenz und Eindeutigkeit 191

3.2 Existenz und Eindeutigkeit


1. τi j sei die Transposition, die i und j vertauscht. Dann gilt σ = τ2,4 ◦τ1,5 .
2. Die Vandermonde-Determinante ist eine klassische Aufgabe, die auch einige
Anwendungen bietet, siehe z.B. Aufgabe 6 zu 1.3. Diese Determinante findet
sich in fast jedem Buch über Determinanten oder lineare Algebra; ihre Lösung
ist daher in verschiedenen Exaktheitsstufen an vielen Stellen nachzulesen. Wir
führen eine ganz ausführliche Lösung vor, die für jedeN nachvollziehbar sein
sollte. Zu zeigen ist
 
1 x1 · · · x1n−1
 ..  =
det  ... ... .  ∏ (x j − xi) .
1 xn · · · xnn−1 16i< j6n

j−1
Systematisch betrachtet steht also an der Stelle (i, j) der Matrix der Eintrag xi .
Die xi stehen für Einträge aus einem beliebigen Körper (allgemeiner: aus einem
kommutativen Ring; für diese lassen sich Determinanten- und Matrizentheorien
entwickeln, vgl. Aufgabe 7). Wir beweisen die Aussage durch Induktion über n.
Der Induktionsanfang n = 1 lautet:
det(1) = ∏ (x j − xi ) = 1 ,
16i< j61

weil es sich um das leere“ Produkt handelt, dessen Wert als 1 definiert ist. An-

genommen, die Aussage sei für n bereits bewiesen. Wir zeigen, dass sie dann
auch für n + 1 gelten muss. Wir müssen
1 x1 x12 ··· x1n−1 x1n
.. .. .. .. ..
. . . . .
1 xn xn2 · · · xnn−1 xnn
2
1 xn+1 xn+1 ··· n−1
xn+1 n
xn+1

berechnen. Durch Addieren des (−xn+1 )-fachen der k-ten Spalte zur (k + 1)-ten
Spalte (k durchläuft hier 1 bis n) erhalten wir
1 x1 − xn+1 x1 (x1 − xn+1 ) · · · x1n−2 (x1 − xn+1 ) x1n−1 (x1 − xn+1 )
.. .. .. .. ..
= . . . . . .
1 xn − xn+1 xn (xn − xn+1 ) · · · xnn−2 (xn − xn+1 ) xnn−1 (xn − xn+1 )
1 0 0 ··· 0 0

Nun können wir durch Zeilenvertauschungen die letzte Zeile in die erste Zeile
192 3 Determinanten

bringen und die Eigenschaften D9 sowie D1 b) verwenden:


1 x1 · · · x1n−1
= (−1)n · (x1 − xn+1 ) · . . . · (xn − xn+1 ) · ... ... ..
.
| {z }
n 1 xn · · · xnn−1
∏ (xi −xn+1 )
i=1
n
(∗)
= ∏(xn+1 − xi) · ∏ (x j − xi ) = ∏ (x j − xi ) ,
i=1 16i< j6n 16i< j6n+1
wobei an der durch (∗) markierten Stelle die Induktionsannahme eingeht.
3. Die Vandermonde-Determinante, mit der wir uns in der letzten Aufgabe be-
schäftigt haben, liefert die Idee: Wir wählen die unendliche Teilmenge
M := {(1, k, k2 , . . . , kn−1 ) : k ∈ N}
des Rn . Für paarweise verschiedene k1 , . . . , kn ∈ N sind die Vektoren
(1, k1 , . . . , k1n−1 ), . . . , (1, kn , . . . , knn−1 )
aus M sind linear unabhängig, weil die Determinante der Matrix, deren Zeilen
von den Vektoren gebildet werden, gerade 
1 k1 k12 · · · k1n−1
 .. .. ..  =
det  . . ..
. .  ∏ (k j − ki)
1 kn kn · · · kn
2 n−1 16i< j6n

beträgt. Dieses Produkt kann jedoch nie null sein, weil die ki alle verschieden
sind.
4. Wir zeigen det(ai j ) = det((−1)i+ j ai j ) mit Hilfe der Formel von Leibniz, die
die Determinante über
det(ai j ) = ∑ sign (σ )a1σ (1) · . . . · anσ (n)
σ ∈Sn
sehr formell definiert, was für Rechnungen und Beweise zunächst sehr unhand-
lich erscheint. Hier gilt
det((−1)i+ j ai j ) = ∑ sign (σ )(−1)1+σ (1) a1σ (1) · . . . · (−1)n+σ (n) anσ (n)
σ ∈Sn
= ∑ sign (σ )(−1)∑i σ (i)+∑i i a1σ (1) · . . . · anσ (n) .
σ ∈Sn
n(n+1)
Da ∑ni=1 σ (i) = ∑ni=1 i = 2 ist, ist diese Summe gleich
= (−1) n(n+1)
· ∑ sign (σ ) · a1σ (1) · . . . · anσ (n)
σ ∈Sn
= (−1)n(n+1) · det(ai j ) .
n(n + 1) ist jedoch stets eine gerade Zahl; damit ist die Behauptung gezeigt.
3.2 Existenz und Eindeutigkeit 193

5. Es sei A = (ai j ) ∈ M(n × n; k).


a) Wenn wir det A mit Hilfe der Leibniz-Formel berechnen, erhalten wir n!
Summanden, die aus jeweils n + 1 Faktoren bestehen. Das ergibt insgesamt
(n + 1)n! = (n + 1)! Multiplikationen und n! Additionen. Wenn wir jedoch A
erst mit Hilfe des Gauß-Algorithmus auf Zeilenstufenform bringen und die De-
terminante durch Multiplikation der Diagonalenelemente berechnen, benötigen
wir folgende Rechenoperationen:
Anzahl der Anzahl der
Additionen Multiplikationen
n(n − 1) n(n − 1) erste Spalte
(n − 1)(n − 2) (n − 1)(n − 2) zweite Spalte
.. .. ..
. . .
2·1 2·1 Zeilenstufenform
0 n Diagonalelemente
Das ergibt n−1
n(n2 + 2)
n + ∑ i(i + 1) = Multiplikationen
i=1 3
und n−1
n(n2 − 1)
∑ i(i + 1) = 3
Additionen .
i=1
Dabei sollte jedoch beachtet werden, dass wir hier das Vorzeichen, das als
Signum der Permutation bei Leibniz auftritt, als Rechenoperation mitgezählt
haben. Unter diesen Voraussetzungen ist die Gauß-Methode stets günstiger.
Zählt man das Vorzeichen nicht als Rechenoperation mit (in der Praxis ist ein
Vorzeichenwechsel ja auch nicht sehr mühsam), so muss man, wenn man die
Leibniz-Formel anwenden möchte, nur n · n! Multiplikationen und n! Additionen
durchführen. Damit hat man insgesamt folgende Anzahlen von Rechnungen zu
leisten: n(n2 − 1) n(n2 + 2) n(2n2 + 1)
+ = (Gauß)
3 3 3
n · n! + n! = n!(n + 1) = (n + 1)! (Leibniz)
Demnach wäre es für n = 2 egal, welches Verfahren man benutzt. Für n = 3
macht die Wahl keinen sehr großen Unterschied (19 Rechenoperationen nach
Gauß gegenber 24 nach Leibniz), für n > 4 wird der Aufwand tatsächlich sehr
unterschiedlich, das Gauß-Verfahren gewinnt mit wachsendem n immer mehr
an Vorteil. Diese Erkenntnisse entsprechen ganz der bewährten Rechenpraxis,
für n = 2 und n = 3 die Formel von Leibniz zu verwenden (siehe 3.2.6), und
194 3 Determinanten

für größere n die Matrix mittels des Gauß-Algorithmus in Zeilenstufenform


zu bringen.
b) 48 Stunden entsprechen 1.728 ·1011 Mikrosekunden. In diesem Zeitraum sind
also 5 · 1.728 · 1011 = 8.64 · 1011 Rechenoperationen möglich. Mit der Formel
von Leibniz kann die Determinante einer (13 × 13)-Matrix unter den gegebenen
Umstnden in zwei Tagen ausgerechnet werden. Mit Hilfe der Vorgehensweise
nach Gauß ist jedoch die Determinante einer Matrix mit bis zu 10 902 Zeilen
und Spalten zu kalkulieren. Das belegt eindrucksvoll, welche Vorteile dieses
Verfahren bei großen Matrizen bietet.
Hinweis. Bei der Anzahl an Rechenschritten in Algorithmen spricht man von der
Effizienz oder der Ordnung des Algorithmen, vgl. [S4], Abschnitt 1.5.
6. D4:
det(λ A) = ∑ sign (σ ) · λ a1σ (1) · . . . · λ anσ (n)
σ ∈Sn
= λ · n
∑ sign (σ )a1σ (1) · . . . · anσ (n)
σ ∈Sn
= λ n · det A .
D5: Ist die i-te Zeile von A gleich null, d.h. ai1 = . . . = ain = 0, so gilt
det A = ∑ sign (σ )a1σ (1) · . . . · aiσ (i) · . . . · anσ (n) = 0 .
σ ∈Sn | {z }
=0
D6: Ohne Einschränkung sei B aus A durch Vertauschung der ersten und zweiten
Zeile entstanden, d.h. b1 j = a2 j und b2 j = a1 j für j = 1, . . . , n sowie bi j = ai j für
i ̸= 1, 2. Es gilt
det B = ∑ sign (σ ) · b1σ (1) · b2σ (2) · b3σ (3) · . . . · bnσ (n)
σ ∈Sn
= ∑ sign (σ ) · a2σ (1) · a1σ (2) · a3σ (3) · . . . · anσ (n)
σ ∈Sn
= ∑ sign (σ ) · a2σ τ (2) · a1σ τ (1) · a3σ τ (3) · . . . · anσ τ (n) ,
σ ∈Sn
wobei τ die Transposition ist, die 1 und 2 vertauscht. Bezeichnen wir ρ := σ ◦ τ
und benutzen, dass die Abbildung Sn → Sn , σ 7→ σ ◦ τ , bijektiv ist, so folgt mit
sign (σ ) = −sign (ρ )
det B = − ∑ sign (ρ ) · a1ρ (1) · . . . · anρ (n) = − det A .
ρ ∈Sn

D7: O.E. sei B aus A durch Addition des λ -fachen der zweiten Zeile zur ersten
Zeile entstanden, d.h. b1 j = a1 j + λ a2 j für j = 1, . . . , n und bi j = ai j für i ̸= 1.
3.2 Existenz und Eindeutigkeit 195

Dann gilt
det B = ∑ sign (σ ) · b1σ (1) · b2σ (2) · . . . · bnσ (n)
σ ∈Sn
= ∑ sign (σ ) · (a1σ (1) + λ a2σ (1) ) · a2σ (2) · . . . · anσ (n)
σ ∈Sn
= ∑ sign (σ ) · a1σ (1) · a2σ (2) · . . . · anσ (n)
σ ∈Sn
+λ ∑ sign (σ ) · a2σ (1) · a2σ (2) · . . . · anσ (n) .
σ ∈Sn
Die zweite Summe ist null, weil sie die Determinante einer Matrix ist, die zwei
gleiche Zeilen hat, siehe auch D2 in 3.2.5.
D8: A sei eine obere Dreiecksmatrix, d.h. ai j = 0 für i > j. Es gilt
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
In jedem Summanden ist mindestens ein Faktor null, falls σ ̸= id ist, da in diesem
Fall mindestens ein i mit i > σ (i) existiert. Dann gilt für die Determinante von A
det A = sign (id) · a11 · a22 · . . . · ann ,
sie entspricht also dem Produkt der Diagonaleneintrge.
D9: Mit einer analogen Idee wie im Beweis von D8 lässt sich auch diese Aus-
sage zeigen. Wir führen dies aus, da wir in der Lösung zu Aufgabe 7 darauf
zurückgreifen
( werden.
)
Sei A = ai j ∈ M(n × n; K) gegeben durch
( )
A1 C
A=
0 A2
mit ( ) ( )
(1) (2) ( )
A1 = ai j , A2 = ai j C = ci j 16i6k .
16i, j6k k+16i, j6n k+16 j6n
Für die Determinante gilt
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
Gilt k +1 6 i 6 n sowie 1 6 j = σ (i) 6 k für eines der ai j , so ist ai j = 0, d.h. jeder
Summand, der ein solches ai j enthält, verschwindet und muss bei der Bestim-
mung der Determinante nicht berücksichtigt werden. In jedem weiteren Sum-
(2)
manden ist, falls k + 1 6 i 6 n gilt, σ (i) ∈ {k + 1, . . . , n}, d.h. aiσ (i) = aiσ (i) . (Man
beachte, dass ein solcher Summand trotzdem gleich null sein kann, da nicht not-
wendig alle Einträge der Matrix A2 von null verschieden sein müssen.) In diesem
Summanden gilt dann jedoch aufgrund der Bijektivität von σ für alle 1 6 i 6 k
196 3 Determinanten

(1)
gerade aiσ (i) = aiσ (i) . Bezeichnen wir die Menge aller Permutationen in Sn , die
diese Voraussetzung erfüllen, d.h. die Mengen {1, . . . , k} sowie {k + 1, . . . , n}
invariant lassen, mit S, so folgt
∑ sign (σ )a1σ (1) · . . . · akσ (k) · ak+1σ (k+1) · . . . · anσ (n)
(1) (1) (2) (2)
det A =
σ ∈S


(1) (1) (2) (2)
= sign (ρ1 )sign (ρ2 )a1ρ · . . . · ak ρ · ak+1ρ · . . . · anρ
1 (1) 1 (k) 2 (k+1) 2 (n)
ρ1 ∈Sk
ρ2 ∈Sn−k

∑ sign (σ )a1σ (1) · . . . · akσ (k) · ∑


(1) (1) (2) (2)
= sign (ρ )ak+1ρ (k+1) · . . . · anρ (n)
σ ∈Sk ρ ∈Sn−k
= det A1 · det A2 .
D10: O.E. kann man die Matrix mittels Gaußverfahren auf Zeilenstufenform
bringen. Das verändert die Determinante nicht. D8 liefert die Behauptung.
D11: Wir betrachten für zwei Matrizen A = (ai j ) und B = (bi j ) zunächst det(A·
B). Es gilt  n n 
∑ a1 j b j1 · · · ∑ a1 j b jn
 j=1 j=1 
 
A·B =  
..
.
..
. .

 n n 
∑ an j b j1 · · · ∑ an j b jn
j=1 j=1

woraus folgt
n n
det(A · B) = ∑ sign (σ ) · ∑ a1 j1 b j1σ (1) · . . . · ∑ an jn b jnσ (n)
σ ∈Sn j1 =1 jn =1
n
= ∑ sign (σ ) · ∑ a1 j1 b j1 σ (1) · . . . · an jn b jn σ (n) . (∗)
σ ∈Sn j1 ,..., jn =1

Existieren in einem Summanden einer Permutation σ in (∗) k ̸= l mit


jk = jl , so gibt es eine eindeutige Permutation σ ′ ∈ Sn mit σ ′ (k) = σ (l) sowie
σ ′ (l) = σ (k) und σ ′ (i) = σ (i) für i ̸= k, l. Daraus folgt sign (σ ′ ) = −sign (σ )
und
sign (σ ′ )·a1 j1 b j1 σ ′ (1) · . . . · an jn b jn σ ′ (n) + sign (σ )·a1 j1 b j1 σ (1) · . . . · an jn b jn σ (n) = 0 .
Also bleiben in (∗) nur Summanden übrig, für die jk = ̸ jl für alle k ̸= l gilt.
Damit existiert eine eindeutige Permutation σ̄ ∈ Sn mit jk = σ̄ (k) für alle k, d.h.
(∗) wird zu
det(A · B) = ∑ sign (σ ) · a1σ̄ (1) bσ̄ (1)σ (1) · . . . · anσ̄ (n) bσ̄ (n)σ (n) . (∗∗)
σ ,σ̄ ∈Sn
3.2 Existenz und Eindeutigkeit 197

Nun wenden wir uns dem Produkt


det A · det B = ∑ sign (σ̄ ) · a1σ̄ (1) · . . . · anσ̄ (n)
σ̄ ∈Sn
· ∑ sign (π ) · b1π (1) · . . . · bnπ (n)
π ∈Sn
= ∑ sign (σ̄ ) · sign (π ) · a1σ̄ (1) b1π (1) · . . . · anσ̄ (n) bnπ (n)
σ̄ ,π ∈Sn
(∗ ∗ ∗)
zu. Zu jedem i ∈ {1, . . . , n} existiert ein eindeutiges j ∈ {1, . . . , n} mit
j = σ̄ (i). Daher können wir (∗ ∗ ∗) mit Hilfe der Kommutativität der Faktoren
umformen zu
det A · det B = ∑ sign(σ̄ ) · sign(π ) · a1σ̄ (1) bσ̄ (1)π (σ̄ (1)) · . . . · anσ̄ (n) bσ̄ (n)π (σ̄ (n)) .
σ̄ ,π ∈Sn
Die Abbildung σ := π ◦ σ̄ ist nach Satz 3.2.3 eine Permutation mit
sign (σ ) = sign (σ̄ ) · sign (π ), und aufgrund der Bijektivität der Abbildung
Sn → Sn , π 7→ π ◦ σ̄ , folgt
det A · det B = ∑ sign (σ ) · a1σ̄ (1)bσ̄ (1)σ (1) · . . . · anσ̄ (n)bσ̄ (n)σ (n)
σ ,σ̄ ∈Sn
(∗∗)
= det(A · B) .

7. In dieser Aufgabe geht es darum, zu ergründen, ob Determinantentheorie auch


über kommutativen Ringen entwickelt werden können. Das wird uns spätestens
in Kapitel 4 interessieren, wenn wir das charakteristische Polynom einer Matrix
M ∈ M(n; K) durch PM (t) = det(M − t · En ) definieren. Die Einträge der Matrix
M − t · En sind Elemente des Polynomringes K[t].
Die Hinweise zu Beweisen und Rechnungen beziehen sich im Folgenden stets
auf die Lösung von Aufgabe 6.
Die Eigenschaft D4 gilt auch in einem kommutativen Ring. In der Lösung von
Aufgabe 6 wurden nur Umformungen gemacht, die auch in einem Ring möglich
sind.
D5 ist richtig, da 0 · r = 0 in jedem Ring R für alle r ∈ R gilt.
D6 ist ebenfalls richtig, da im Beweis nur Gruppeneigenschaften bzgl. der
Addition sowie die Kommutativität von R benutzt werden.
Auch D7 gilt. Die Gleichheit folgt aus der Eigenschaft
( ) ( ) ( )
ai + λ a j ai aj
det = det + λ det ,
aj aj aj
wobei nur Gruppeneigenschaften bzgl. der Addition verwendet werden.
Eigenschaft D8 gilt aus dem gleichen Grund wie Eigenschaft D5.
198 3 Determinanten

Die Gültigkeit von D9 folgt aus dem Beweis von D9 in Aufgabe 6, da sämtli-
che Rechenschritte auch in kommutativen Ringen ausgeführt werden können.
Der Begriff Rang ist über dim Im A bzw. lineare Abhängigkeit definiert (vgl.
2.2.1). Dies macht jedoch in einem Modul über einem Ring keinen Sinn, daher
gibt es in diesem Fall kein äquivalent zur Aussage D10.
Zur Gültigkeit von D11 vgl. die Lösung zur Aufgabe 6. Die dort durchgeführte
Rechnung kann auch in einem kommutativen Ring durchgeführt werden.
Die Gültigkeit der Aussage D11 hat eine interessante Konsequenz, denn ist R ein
kommutativer Ring und A ∈ M(n × n; R), so gilt
A ist invertierbar ⇔ det A ∈ R ist invertierbar,
d.h. es existiert ein r ∈ R mit det A · r = 1. In einem kommutativen Ring ist im
Allgemeinen nicht jedes Element aus R r 0 invertierbar, und det A ̸= 0 bedeutet
dann nicht notwendig, dass A invertierbar ist. Die invertierbaren Elemente ei-
nes Rings heißen Einheiten und bilden bzgl. der Multiplikation eine Gruppe, die
Einheitengruppe von R, vgl. [W], 3.1.2 und [Ku1], §4.I.
Zur Theorie von Determinanten über kommutativen Ringen vgl. [L], Chapter
XIII, §4. Wir empfehlen die folgende
Ergänzungsaufgabe. Bestimmen Sie für den Ring R := Z/4Z die Einheiten-
gruppe sowie die Menge der invertierbaren Matrizen in M(2 × 2; R).
Die Lösung befindet sich am Ende dieses Abschnittes.
8. Wir wählen einen einzelnen Summanden
a := sign (σ ) · a1σ (1) · . . . · anσ (n)
von
det A = ∑ sign (σ ) · a1σ (1) · . . . · anσ (n) .
σ ∈Sn
Von Bedeutung sind nur die σ ∈ Sn , für die kein ungerader Zykel existiert, d.h.
keine ungerade Zahl 1 6 j < n mit {i1 , . . . , i j } = {σ (i1 ), . . . , σ (i j )}. Wir be-
trachten {i1 , . . . , i j } = {1, . . . , j}; der allgemeine Fall verläuft analog, er ist nur
schwerer zu notieren. Nach Aufgabe 5 a) aus 3.1 gilt dann
∑ sign (ρ ) · a1ρ (1) · . . . · a jρ ( j) · a j+1,l1 · . . . · an,ln− j = 0
ρ ∈S j

für l1 , . . . , ln− j fest. Die Permutation σ enthält also o.B.d.A. höchstens gerade
Zykel.
Wir zerlegen nun die Menge der Paare (i, σ (i)) aus a in zwei disjunkte Men-
gen M1 und M2 , so dass in jeder dieser Mengen alle Zahlen 1 6 j 6 n genau
einmal vorkommen. Das geht so: Wir wählen das Paar (1, σ (1)) für M1 . Es
3.2 Existenz und Eindeutigkeit 199

existiert genau ein weiteres Paar (k2 , l2 ) mit k2 = σ (1), nämlich (σ (1), σ (σ (1))).
Dieses wählen wir für M2 . Gilt l2 = 1, so starten wir unsere Überlegungen mit
dem kleinsten i der verbleibenden Paare (i, σ (i)) erneut. Ansonsten gibt es ge-
nau ein weiteres Paar (k3 , l3 ) mit k3 = l2 . Dieses wählen wir für M1 . Da σ keine
ungeraden Zykel enthält, gilt l3 ̸= 1. Also gibt es genau ein weiteres Paar (k4 , l4 )
mit k4 = l3 . Dieses wählen wir für M2 . Gilt l4 = 1, so beginnen wir unsere Über-
legungen mit dem kleinsten i der verbleibenden (i, σ (i)) erneut. Ansonsten gibt
es genau ein weiteres Paar (k5 , l5 ) mit k5 = l4 . Fahren wir so fort, erhalten wir
Mengen M1 und M2 von Paaren (k, l), so dass in jeder Menge jede Zahl 1 6 j 6 n
in genau einem Paar vorkommt.
Es seien (i1 , σ (i1 )) , . . . , (is , σ (is )) die Paare (i, σ (i)) mit i > σ (i). Da A schief-
symmetrisch ist, folgt
ai1 σ (i1 ) · . . . · ais σ (is ) = (−1)s · aσ (i1 )i1 · . . . · aσ (is )is . (∗)
Vertauschen wir die Elemente der Paare (ki , li ) in M1 und M2 , so dass ki < li
(1) (1) (2) (2)
für alle i gilt, ordnen dann die Paare (ki , li ) in M1 und (ki , li ) in M2
( j) ( j)
für 1 6 i 6 m so an, dass ki < ki+1 für alle i und j = 1, 2 gilt, können wir
den so geordneten Paaren eindeutig Permutationen σ1 , σ2 ∈ Sn zuordnen mit
σ j (2i) > σ j (2i − 1) für i = 1, . . . , m und σ j (2i + 1) > σ j (2i − 1) für
i = 1, . . . , m − 1 sowie j = 1, 2.
Die Vertauschung der Einträge eines Paares (k, l) von σ1 bzw. σ2 entspricht
nach 3.2.2 der Multiplikation mit einer Transpositon, und die Vertauschung zwei-
er Paare (ki , li ) und (k j , l j ) von σ1 bzw. σ2 der Multiplikation mit einer geraden
Anzahl von Transpositionen. Daher gilt nach Korollar 1, Teil 2) in 3.2.3
sign (σ ) = (−1)s · sign (σ1 ) · sign (σ2 ) ,
und mit (∗) folgt daraus
a = sign (σ ) · a1σ (1) · . . . · anσ (n)
= (−1)s sign (σ1 ) · sign (σ2 ) · (−1)s aσ1 (1)σ1 (2) · . . . · aσ1 (2m−1)σ1 (2m) ·
·aσ2 (1)σ2 (2) · . . . · aσ2 (2m−1)σ2 (2m)

= sign (σ1 ) · sign (σ2 ) · aσ1 (1)σ1 (2) · . . . · aσ1 (2m−1)σ1 (2m) ·
(∗∗)
·aσ2 (1)σ2 (2) · . . . · aσ2 (2m−1)σ2 (2m) .
Damit gehört zu jedem Summanden a von det A ein eindeutiges Produkt (∗∗)
mit σ j (2i) > σ j (2i − 1) für i = 1, . . . , m als auch mit
σ j (2i + 1) > σ j (2i − 1) für i = 1, . . . , m − 1 sowie j = 1, 2, wobei die Reihenfolge
von σ1 und σ2 von Bedeutung ist. Es gibt genau m! verschiedene Möglichkeiten,
das Produkt
aσi (1)σi (2) · . . . · aσi (2m−1)σi (2m)
200 3 Determinanten

für i = 1, 2 umzuordnen, indem die zweite der obigen Bedingungen unberück-


sichtigt bleibt. Durch Berücksichtigung dieser zweiten Bedingung werden also
1
gerade m! Summanden von P zusammengefasst; dies erklärt den Faktor m! .
2
Um zu sehen, dass auch jeder Summand von (P(a11 , . . . , ann )) in det A auf-
tritt, kann eine ähnliche Konstruktion wie oben umgekehrt durchgeführt werden.
Da die Reihenfolge im Produkt (∗∗) wichtig ist, ist die Konstruktion eindeutig.
Insgesamt folgt (1 )2
det A = m! P(a11 , . . . , ann ) ,
also die Behauptung.
9. Sind v = (v1 , v2 ) und w = (w1 , w2 ) aus K 2 und L die Gerade durch v und w, so
ist das gleichbedeutend mit
L = {(x1 , x2 ) ∈ K 2 : es gibt ein λ ∈ K mit xi = vi + λ (wi − vi ) für i = 1, 2} .
Andererseits berechnen wir
( ) ( )
1 v1 v2 1 v1 v2
det 1 w1 w2 = det 0 w1 − v1 w2 − v2
1 x1 x2 0 x1 − v1 x2 − v2
( )
w1 − v1 w2 − v2
= det .
x1 − v1 x2 − v2
Wenn diese Determinante null sein soll, bedeutet das gerade, dass ein λ ∈ K
existiert mit
λ (wi − vi ) = xi − vi für i = 1, 2 .

10.∗ Für zwei Matrizen C, D ∈ SL (2; Z) gilt nach D11


det(C · D) = detC · det D = 1 · 1 = 1 ,
also folgt C · D ∈ SL (2; Z), und die Multiplikation
· : SL (2; Z) × SL (2; Z) → SL (2; Z)
ist wohldefiniert. Aus der Assoziativität der Matrizenmultiplikation folgt die As-
soziativität(der Multiplikation
) in SL (2; Z). ( )
a b d −b
Ist C = ∈ SL (2; Z), so gilt C−1 = ∈ SL (2; Z), da
c d −c a
−1 1
detC = detC = 1.
Es bleibt, SL (2; Z) = erz (A, B) mit
( ) ( )
1 1 0 1
A= und B =
0 1 −1 0
zu zeigen. Die Inklusion SL (2; Z) ⊃ erz (A, B) ist dabei klar.
3.2 Existenz und Eindeutigkeit 201

Der Beweis der verbleibenden Inklusion ist trickreich und wird an der ent-
scheidenden Stelle durch eine Induktion über den Betrag eines der Matrizen-
Einträge erfolgen. Zuvor betrachten wir jedoch Matrizen, die mindestens einen
Eintrag mit 0 enthalten.
Im Folgenden bezeichnen wir für m ∈ Nr0 mit Am und Bm die Potenzen von A
und B( sowie )mit A−m die m-te Potenz der inversen Matrix
1 −1
A−1 = von A, und A0 = E2 . Für die Matrix B gilt B4 = E2 , und
0 1
( )
1 m
für m ∈ Z gilt Am = .
0 1
( )
a b
Ist in einer Matrix C = der Eintrag a = 0, so folgt aus detC = 1
c d
( ) ( )
0 −1 0 1
C= oder C =
1 m −1 m
mit m ∈ Z. C hat in diesem Falle die Darstellung
C = B3 · Am oder C = B · A−m ,
d.h. C ∈ erz (A, B).
Analog gilt für den Fall d = 0
( ) ( )
m 1 m −1
C= oder C =
−1 0 1 0
mit m ∈ Z, woraus folgt
C = A−m · B oder C = Am · B3 .
Genauso zeigt man, dass für b = 0 oder c = 0 die entsprechenden Matrizen in
erz (A, B) liegen.
Jetzt
( kommt)der schwierige Teil, denn wir müssen für eine beliebige Matrix
a b
C= ∈ SL (2; Z), in der auch alle Einträge ungleich 0 sein können,
c d
zeigen, dass sie in erz (A, B) liegt.
Dazu nehmen wir zunächst an, dass |c| = min {|a|, |b|, |c|, |d|} gilt und führen
Induktion über |c|.
Den Fall |c| = 0 haben wir bereits oben ausführlich behandelt. Ist |c| = 1, so
hat C die Gestalt ( )
a b
C± = ,
±1 d
und damit folgt für c = 1
( ) ( )
1 −a 0 −ad + b
A−a ·C+ = ·C+ = =: D1 ,
0 1 1 d
202 3 Determinanten

sowie für c = −1 ( ) ( )
1 a 0 ad + b
Aa ·C− = ·C− = =: D−1 ,
0 1 −1 d
und nach den obigen Ausführungen gilt D1 , D−1 ∈ erz (A, B). Durch Multipli-
kation von links mit der Inversen Matrix von A−a erkennen wir daran, dass
C ∈ erz (A, B) gilt.
Ist nun |c| > 2, so sind a und c wegen der Bedingung ad − bc = 1 teiler-
fremd. Da c der vom Betrag her minimale Eintrag der Matrix C ist, existiert
nach dem euklidischen Algorithmus (vgl. [B], Kapitel 2 sowie [W], Satz 1.6) ein
n ∈ N r 0 mit
|nc| < |a| < |(n + 1)c| ,
und damit existiert ein m ∈ Z mit
|mc + a| < |c| .

)Matrix B ·A und erhalten


Nun multiplizieren wir die Matrix 3 m
( C von links mit der
−c −d
C′ = .
mc + a md + b
Auf die Matrix C′ können wir wegen |mc + a| < |c| die Induktionsvoraussetzung
anwenden, also gilt C′ ∈ erz (A, B), und damit folgt durch Linksmultiplikation
mit der inversen Matrix von B3 · Am auch C ∈ erz (A, B).
Falls eines der anderen Matrixelemente minimal ist, verläuft der Beweis ana-
log, so lauten die Multiplikationen im Induktionsschritt für minimales |a|
( )( ) ( )
m 1 a b ma + c mb + d
A−m · B ·C = = ,
−1 0 c d −a −b
für minimales |b|
( )( ) ( )
a b 0 1 −b a + mb
C · B · A−m = = ,
c d −1 m −d c + md
und für minimales |d|
( )( ) ( )
0 −1 a b −c −d
B3 · Am ·C = = .
1 m c d a + mc b + md
Damit ist alles gezeigt.
11. a) Ist gezeigt, dass L0 ⊂ D ein Untervektorraum ist, so ist L wegen
L = b + L0 ein affiner Unterraum.
Es bleibt also zu zeigen, dass L0 ein Untervektorraum von D ist. Wegen
0 = A · 0 ist L0 nicht leer, das zeigt UV1. Sind λ ∈ R und φ , φ1 , φ2 ∈ L ge-
geben, so folgt mit der Linearität der Ableitung (vgl. Aufgabe 2 zu 2.2)
A · (λ φ ) = λ · A · φ = λ φ ′ = ( λ φ )′
3.2 Existenz und Eindeutigkeit 203

und A · (φ1 + φ2 ) = A · φ1 + A · φ2 = φ1′ + φ2′ = (φ1 + φ2 )′ ,


das zeigt UV2 und UV3.
b) Um die Folgerung i) ⇒ ii) zu zeigen, wählen wir ein beliebiges x0 ∈ I und
λ1 , . . . , λn ∈ R mit
φ (x0 ) := λ1 φ (1) (x0 ) + . . . + λn φ (n) (x0 ) = 0 .
Eine Lösung dieser Gleichung ist sicherlich durch φ = 0 gegeben. Nach dem
Existenz- und Eindeutigkeitssatz ([Fo2], §12, Satz 1) existiert jedoch genau eine
Lösung φ zu x0 und dem Anfangswert c = 0. Damit gilt in L0
λ1 φ (1) + . . . + λn φ (n) = φ = 0 .
Da φ (1) , . . . , φ (n) nach Voraussetzung über R linear unabhängig sind, folgt
λ1 = . . . = λn = 0, d.h. φ (1) (x0 ), . . . , φ (n) (x0 ) ∈ Rn sind linear unabhängig.
Wir haben mehr gezeigt als verlangt war, nämlich
ii)∗ Für beliebiges x ∈ I sind die Vektoren φ (1) (x), . . . , φ n) (x) ∈ Rn linear un-
abhängig.
Tatsächlich ist diese Aussage äquivalent zu den Aussagen i) bis iii), da die Im-
plikation ii)∗ ⇒ ii) trivial ist.
Die Folgerung ii) ⇒ i) ist klar, denn wären φ (1) , . . . , φ (n) linear abhängig, so
gäbe es λ1 , . . . , λn ∈ R, die nicht alle gleich 0 sind, so dass
λ1 φ (1) + . . . + λn φ (n) = 0
die Nullfunktion ist. Insbesondere wäre für alle x ∈ I
λ1 φ (1) (x) + . . . + λn φ (n) (x) = 0
im Widerspruch zu ii).
( j)
Es bleibt, die Äquivalenz von ii) und iii) zu zeigen. Es gilt φi ∈ D für
alle i, j,( und )D ist kein Körper. Daher dürfen wir nicht mit dem Rang der
( j)
Matrix φi argumentieren (vgl. die Lösung von Aufgabe 7). Allerdings ist
( )
( j)
det φi ̸= 0 gleichbedeutend damit, dass es sich nicht um die Nullfunktion in
D handelt, d.h. es existiert ( ein)x0 ∈ I mit ( )
( j) ( j)
det φi (x0 ) = det φi (x0 ) ̸= 0 .
( j)
( die φi )(x0 ) Elemente eines Körpers sind, ist dies gleichbedeutend
Da jedoch
( j)
mit rang φi (x0 ) = n, was nach D10 äquivalent zur linearen Unabhängigkeit
von φ (1) (x0 ), . . . , φ (n) (x0 ) ist. Dies zeigt die Äquivalenz von ii) und iii).
204 3 Determinanten

c) Nach Teil a) genügt es, dimL0 = n zu zeigen. Dazu wählen wir ein x0 ∈ I und
definieren
Fx0 : L0 → Rn , φ 7→ φ (x0 ) =: c .
Mit Hilfe der Definition der Vektorraum-Struktur auf D (vgl. Aufgabe 3 zu 1.4)
folgt, dass Fx0 linear ist. Aus dem Existenz- und Eindeutigkeitssatz folgt, dass
Fx0 bijektiv ist. Also ist Fx0 ein Isomorphismus, es gilt dim L = dim Rn = n.
Eine Basis von L0 , d.h. φ (1) , . . . , φ (n) ∈ L , welche die Bedingungen unter b)
erfüllen, heißt Fundamentalsystem der Differentialgleichung φ ′ = A · φ . Die all-
gemeine Lösung φ dieser Differentialgleichung hat dann die Form
φ = λ1 φ (1) + . . . + λn φ (n) mit λ1 , . . . , λn ∈ R .
Mit Hilfe der Wronski-Determinante kann man leicht prüfen, ob Funktionen
φ (1) , . . . , φ (n) ein Fundamentalsystem der Differentialgleichung φ ′ = A · φ bil-
den. Diese Aussage ist nach Bedingung ( iii)) aus Teil b) äquivalent dazu, dass
( j)
mindestens ein x0 ∈ I existiert mit det φi (x0 ) ̸= 0, vergleiche auch mit der
Lösung von Aufgabe 12.
12. Es sei wie in der Aufgabenstellung y0 = y, y1 = y′ . Die Differentialgleichung
schreibt sich dann ( ′ ) ( )
y0 y0 (∗)
= A ,
y′1 y1

und wegen y′′ = −y gilt


y′0 = y1
y′1 = −y0 ;
damit lautet die Matrix ( )
0 1
A= .
−1 0
Nach Aufgabe 11 c) gilt dimL0 = 2, und wir wählen zwei Funktionen
φ (1) = (cos, − sin) und φ (2) = (sin, cos) .
Die Wronski-Determinante
( lautet )
cos sin
det = cos2 + sin2 ,
− sin cos
und wegen cos2 (x) + sin2 (x) = 1 für alle x ∈ R ist sie ungleich 0, damit bilden
φ (1) und φ (2) ein Fundamentalsystem der Differentialgleichung (∗).
Da φ genau dann eine Lösung von y′′ = −y ist, wenn (φ , φ ′ ) eine Lösung des
linearen Systems ist (was nach der Konstruktion von (∗) unmittelbar klar ist), ist
die allgemeine Lösung von y′′ = −y gegeben durch
φ = λ1 cos +λ2 sin mit λ1 , λ2 ∈ R .
3.2 Existenz und Eindeutigkeit 205

Lösungen der Ergänzungsaufgaben


Ergänzungsaufgabe zu Aufgabe 7. Die Einheitengruppe von R = Z/4Z besteht
aus {1̄, 3̄}, wobei wir wie bereits in Abschnitt 1.2.7 durch ā die Restklasse von
a in R bezeichnen. Dies sieht man leicht an einer Verknüpfungstabelle für die
Multiplikation:
· 0̄ 1̄ 2̄ 3̄
0̄ 0̄ 0̄ 0̄ 0̄
1̄ 0̄ 1̄ 2̄ 3̄
2̄ 0̄ 2̄ 0̄ 2̄
3̄ 0̄ 3̄ 2̄ 1̄
Im Folgenden stellen wir daher alle Matrizen aus M(2 × 2; R) auf, die die De-
terminante 1̄ oder 3̄ haben. Die Tatsache −1̄ = 3̄ wird uns dabei noch zu Hilfe
kommen.
Es bezeichne ā ein
( beliebiges
) Element aus R.(Zunächst)gilt
1̄ ā 1̄ ā
det = 1̄ und det = 3̄ .
0̄ 1̄ 0̄ 3̄
Durch Vertauschung von Elementen innerhalb einer Diagonalen verändert sich
die Determinante der Matrix nicht; ebenso verändert sich durch Vertauschung
der beiden Diagonalen nur das Vorzeichen der Determinante. Alle Matrizen, die
durch diese Operationen aus den beiden obigen Matrizen hervorgehen, sind al-
so ebenfalls invertierbar. Damit sind, wie man sich leicht überlegt, bereits alle
invertierbaren Matrizen mit mindestens einem Eintrag ( gleich)null behandelt.
a b
Falls ā · d¯ ̸= 0 und b̄ · c̄ ̸= 0 für eine Matrix A = ∈ M(2 × 2; R) ist,
c d
gibt es folgende Möglichkeiten:
i) ā · d¯ = 1̄ und b̄ · c̄ = 2̄, ii) ā · d¯ = 2̄ und b̄ · c̄ = 1̄,
iii) ā · d¯ = 2̄ und b̄ · c̄ = 3̄, iv) ā · d¯ = 3̄ und b̄ · c̄ = 2̄.
Die sich daraus für die Einträge ā, b̄, c̄, d¯ ergebenden 32 Möglichkeiten können
obiger Multiplikationstafel entnommen werden.
Damit haben wir alle invertierbaren Matrizen in M(2 × 2; R) bestimmt.
E1. Für f = at 2 + bt + c ist f ′ = 2at + b und f ′′ = 2a, und damit gilt
( )
c b a
D f = det b 2a 0 = 4a2 c − b2 a .
0 b 2a
Wegen a ̸= 0 ist D f = 0 gleichbedeutend mit b2 − 4ac = 0. Der Term b2 − 4ac
ist die Diskriminante, die aus der Schule vom Lösen quadratischer Gleichungen
bekannt ist (vgl. [Scha], Kapitel 3), was die Namensgleichheit erklärt.
206 3 Determinanten

b2 − 4ac = 0 gilt genau dann, wenn die zugrundeliegende quadratische


Gleichung at 2 + bt + c = 0 exakt eine Lösung hat und die zur Funktion
f = at 2 + bt + c gehörige Parabel die x-Achse berührt.
E2. a) Zu zeigen ist, dass (Ω, ⊕) eine Gruppe ist. Wichtig ist es hier, sorgfältig
mit den verschiedenen Rechenoperationen umzugehen. Zunächst betrachten wir
das Assoziativgesetz (G1), wählen ω1 , ω2 , ω3 ∈ Ω und m1 , m2 , m3 , n1 , n2 , n3 ∈ Z.
Zu zeigen ist ( )
(m1 ω1 + n1 ω2 ) ⊕ (m2 ω1 + n2 ω2 ) ⊕ (m3 ω1 + n3 ω2 )
! ( )
= (m1 ω1 + n1 ω2 ) ⊕ (m2 ω1 + n2 ω2 ) ⊕ (m3 ω1 + n3 ω2 )
Die Rechnung ergibt
( )
((m1 ω1 + n1 ω2 ) ⊕ (m2 ω1 + n)2 ω2 ) ⊕ (m3 ω1 + n3 ω2 )
= ((m1 + m2 )ω2 + (n ) 1 + n(2 )ω2 ⊕ (m3 ω1)+ n3 ω2 )
= (m1 + m2 ) + m3 ω1 + (n1 + n2 ) + n3 ω2
~ ( ) ( )
= m1 + (m2 + m3 ) (ω1 + n1 + (n2 + n3 ) ω2 )
= (m1 ω1 + n1 ω2 ) ⊕ ((m2 + m3 )ω1 + (n2 + n3 )ω3 )
= (m1 ω1 + n1 ω2 ) ⊕ (m2 ω1 + n2 ω2 ) ⊕ (m3 ω1 + n3 ω2 ) .
An der Stelle ~ wurden mi , ni ∈ Z und das Assoziativgesetz der ganzen Zahlen
benutzt. (G1) wurde damit gezeigt.
(G2): Das neutrale Element ist gegeben durch (0ω1 +0ω2 ). Hiermit berechnen
wir für m, n ∈ Z beliebig ( )
(mω1 + nω2 ) ⊕ (0ω1 + 0ω2 ) = (m + 0)ω1 + (n + 0)ω2
= (mω1 + nω2 ) .
( )
Das inverse Element zu (mω1 + nω2 ) ist gegeben durch (−m)ω1 + (−n)ω2 ,
denn ( )
(mω1 + nω2 ) ⊕ ((−m)ω1 + (−n)ω2 ) = (m + (−m))ω1 + (n + (−n))ω2
= (0ω1 + 0ω2 ) .
b) ω1 und ω2 erzeugen Ω, daher existieren m̃1 und m̃2 sowie ñ1 und ñ2 mit
ω̃1 = m̃1 ω1 + ñ1 ω2 und ω̃1 = m̃2 ω1 + ñ2 ω2 .
Gilt ( ) ( )( )
ω̃1 a b ω1
= ,
ω̃2 c d ω2
so gilt
ω̃1 = aω1 + bω2 und ω̃2 = cω1 + d ω2 .
Dann folgt
m̃ω̃1 + ñω2 = m̃(aω1 + bω2 ) + ñ(cω1 + d ω2 )
= (m̃a + ñc)ω1 + (m̃b + ñd)ω2 .
3.2 Existenz und Eindeutigkeit 207

Damit erzeugen ω̃1 und ω̃2 in Ω. Aufgrund der Linearität der Abbildung in Ver-
bindung mit der Matrix erzeugen ω̃1 und ω̃2 die Gruppe Ω.
ω1 und ω2 erzeugen die Gruppe Ω. Daher existieren a, b, c, d ∈ Z mit
ω̃1 = aω1 + bω2 und ω̃2 = cΩ1 + d ω2 . Damit ergibt sich die Matrix.
Da die ωi und die ω̃i dieselben Maßeinheiten besitzen, muss |ωi | = |ω̃i | sein.
Da die Determinante den Streckungsfaktor
1 einer linearen Abbildung angibt (vgl
[Fi1], Abschnitt 3.1), muss ad−bc = 1 sein. Die Rechengesetze der Gruppe las-
sen sich wie in Teil a) zeigen.
E3. a) Surjektivität: Es sei z̃ ∈ C. Es werden die Fälle z̃ ̸= ac und z̃ = ac unter-
schieden.
Für z̃ ̸= ac gilt
az + b
z̃ = ⇐⇒ z̃(cz + d) = az + b
cz + d
⇐⇒ czz̃ + d z̃ = az + b
⇐⇒ czz̃ − az = b − d z̃
⇐⇒ z(cz̃ − a) = b − d z̃
b − d z̃
⇐⇒ z =
cz̃ − a
Im Fall z̃ ̸= ac ist hiermit eine Lösung gegeben. Ist z = ac , so ist z = 1 eine Lösung.
Somit ist die Abbildung surjektiv.
Injektivität: Es gilt
az1 +b az2 +b
cz1 +d = cz2 +d
⇐⇒ (az1 + b)(cz2 + d) = (az2 + b)(cz1 + d)
⇐⇒ acz1 z2 + az1 d + bcz2 + bd = az2 cz1 + az2 d + bcz1 + bd
⇐⇒ adz1 + bcz2 = adz2 + bcz1
⇐⇒ (ad − bc)z1 = (ad − bc)z2
⇐⇒ z1 = z2 ,
wobei im letzten Schritt ad − bc ̸= 0 berücksichtigt wurde.
Hiermit ist die Abbildung injektiv für ad − bc ̸= 0 und insgesamt bijektiv.
b) Zunächt ist zu zeigen, dass die Verknüpfung zweier Möbius-Transformationen
wieder eine Möbius-Transformation ist. Hierzu seien
a1 z + b1 a2 z + b2
M1 (z) := und M2 (z) :=
c1 z + d1 c2 z + d2
zwei Möbius-Transformationen. Für die Verknüpfung ◦ ergibt sich
(a2 a1 + b2 c1 )z + (a2 b1 + b2 d1 )
(M2 ◦ M1 ) = , (3.1)
(c2 a1 + d2 c1 )z + (c2 b1 + d2 d1 )
womit es sich um eine Möbius-Transformation handelt. Es bleibt noch zu zeigen,
dass
(a2 a1 + b2 c1 )(c2 b1 + d2 d1 ) − (c2 a1 + d2 c1 )(a2 b1 + b2 d1 ) ̸= 0
208 3 Determinanten

gilt. Die Rechnung ergibt


(a2 a1 + b2 c1 )(c2 b1 + d2 d1 ) − (c2 a1 + d2 c1 )(a2 b1 + b2 d1 )
= a1 a2 b1 c2 + a1 a2 d1 d2 + b1 b2 c1 c2 + b2 c1 d1 d2
− a1 a2 b1 c2 − a1 b2 c2 d1 − a2 b1 c1 d2 − b2 c1 d1 d2
= (a1 d1 − b1 c1 ) (a2 d2 − b2 c2 ) ̸= 0 ,
| {z }| {z }
̸=0 ̸=0
was zu zeigen war.
(G1) Die Gültigkeit des Assoziativgesetzes kann mithilfe einer simplen, wenn-
gleich aufwändigen, Rechnung nachgewiesen werden.
(G2) Das neutrale Element ist gegeben durch z 7→ z, d.h. a = d = 1 und
b = c = 0.
Durch M −1 = −cz+a
dz−b
ist das inverse Element gegeben, denn mit Hilfe von Glei-
chung (3.1) und ad − bc = 1 ergibt sich
( −1 ) (da − bc)z + (db − bd)
M ◦ M (z) = = z.
(−ca + ac)z + (−cb + ad)
z
Dass die Gruppe nicht kommutativ ist, zeigen M1 := z+1 und M2 := z+1z . Es
gilt 2z + 1 z+1
M2 ◦ M1 = , jedoch M1 ◦ M2 = .
z 2z + 1
c) Zu bedenken ist, dass für alle k ̸= 0
k·a·z+k·b a·z+b
=
k·c·z+k·b c·z+b
gilt. Damit kann man o.B.d.A. annehmen,( dass
) a, b, c, d keine gemeinsamen Tei-
a b
ler haben. Wegen (ad − bc) = det ist die Abbildung bijektiv.
c d
Es bleibt zu zeigen, dass für a1 , b1 , c1 , d1 und a2 , b2 , c2 , d2 und die zugehörigen
a1 z + b1 a2 z + b2
M1 := und M2 :=
c1 z + d1 c2 z + d2
sowie ( ) ( )
a1 b1 a2 b2
A1 := und A1 :=
c1 d1 c2 d2
als auch
M2 ◦ M1 7→ A2 · A1
gelten. Nach obiger Rechnung ergibt sich
(a2 a1 + b2 b1 ) · z + (a2 b1 + b2 d1 )
(M2 ◦ M1 ) = .
(c2 a1 + d2 c1 ) · z + (c2 b1 + d2 d1 )
Für die Matrizenmultiplikation
( ) ( gilt ) ( )
a2 b2 a1 b1 a1 a2 + b2 c1 b1 a2 + b2 d1
A2 · A1 = · = ,
c2 d2 c1 d1 c2 a1 + c1 d2 b1 c2 + d1 d2
3.3 Minoren∗ 209

womit die Behauptung bewiesen ist. Die Abbildung wird bijektiv, wenn für den
größten gemeinsamen Teiler ggT(a, b, c, d) = 1 erfüllt ist.
d) Es sei z = z1 + iz2 mit zi ∈ R und z2 > 0. Dann gilt
az + b a(z1 + iz2 ) + b
=
cz + d c(z1 + iz2 ) + d
az1 + iaz2 + b
=
cz1 + icz2 + d
(az1 + iaz2 + b)(cz1 + d − icz2 )
=
(cz1 + d)2 + (cz2 )2
acz1 + adz1 + acz22 + bcz1 + bd
2
=
(cz1 + d)2 + (cz2 )2
−iaz1 cz2 + iaz2 cz1 + iadz2 − ibcz2
+
(cz1 + d)2 + (cz2 )2
(−acz1 z2 + acz1 z2 + adz2 − bcz2 )
= Realteil + i ·
(cz1 + d)2 + (cz2 )2
ad − bc
= Realteil + i · z2 ,
(cz1 + d)2 + (cz2 )2

wobei der Realteil nicht ausgeschrieben ist, da wir lediglich am Imaginärteil


interessiert sind. Mit z2 > 0 und ad − bc > 0 folgt die Behauptung.

3.3 Minoren∗
1. a) Für n = 2 ist die Abbildung A 7→ A♯ noch linear, für n > 2 jedoch nicht. Im
ersten Fall gilt
( )♯ ( )
a b d −b
= .
c d −c a

Die Abbildung entspricht also in etwas anderer Schreibweise


t
(a, b, c, d) 7→ t (d, −b, −c, a) ,

also der Linksmultiplikation durch die Matrix


 
0 0 0 1
 0 −1 0 0 
 0 0 −1 0 
.
1 0 0 0
210 3 Determinanten

Für n > 3 gibt es folgendes Gegenbeispiel, das die Linearität ausschließt:


 #
 # 0 ··· 0
1 0  
   1 0 
 0   . . 
 .  = (0) , 

.. ..
. ..  = (0) ,

 0 ..   
 0 1 
0
0 ··· 0
aber  #  
1 0 ··· 0 0 0
 . .   
 0 .. ..  ..
  =
. 
.
 .. .   
 . 1 ..  0
0 ··· ··· 0 0 1
b) Die Lösung dieser Aufgabe birgt keine besondere Schwierigkeit in sich; es
handelt sich um eine geradlinige Rechnung mit einigen Indizes, die wir unseren
LeserInnen ohne weiteres zutrauen und aus diesem Grunde auslassen.
c) Mit Hilfe der Eigenschaft D11 der Determinante, Satz 3.3.1 und Eigenschaft
D1 b) der Determinante folgt ( )
det A♯ · det A = det A♯ · A = det (det A · En ) = (det A)n .

Für det A ̸= 0 folgt daraus sofort det A♯ = (det A)n−1 .


Ist det A = 0, so bleibt det A♯ = 0 zu zeigen. Für A = 0 folgt A♯ = 0, also
det A♯ = 0.
Falls A ̸= 0 ist, gilt 1 6 rang A 6 n − 1. Mit Hilfe von Lemma 2.5.5 bekommen
wir die Abschätzung ( )
rang A♯ + 1 − n 6 rang A♯ + rang A − n 6 rang A♯ · A
= rang ((det A) · En ) = 0 ,
woraus rang A♯ 6 n − 1 und damit det A♯ = 0 folgt.
d) Bevor wir die Behauptung zeigen, bemerken wir, dass n > 3 sein muss. Für
n = 1 ist n − 2 < 0, d.h. für det A = 0 ist die Aussage falsch. Ferner ist für n = 2
die Aussage im Prinzip zwar richtig, aber 00 keine vernünftige“ Zahl. Der Fall

n = 2 wird daher in der Zusatzaufgabe E1 behandelt.
Wie in Teil c) bestimmen wir mit Satz 3.3.1
( )♯ c)
A♯ · A♯ = (det A♯ ) · En = (det A)n−1 · En .
Andererseits gilt wegen
(( der Assoziativität
) der Matrizen-Multiplikation
)♯ ( )♯ ( ) ( )♯
n−1
(det A) ·A = A · A · A = A · A♯ · A = A♯ · (det A) · En ,
♯ ♯ ♯
3.3 Minoren∗ 211

woraus folgt
( )♯ ( ( )♯ )
0 = (det A)n−1 · A − det A · A♯ = det A · (det A)n−2 · A − A♯ .
( )♯ ( )♯
Ist det A ̸= 0, so gilt (det A)n−2 · A − A♯ = 0, also A♯ = (det A)n−2 · A.
( ♯ )♯
Im Fall det A = 0 nehmen wir an, es gilt A ̸= 0. Dann existiert ein
(n − 1)-Minor von A♯ , der ungleich 0 ist, und nach Satz 3.3.6 ist rang A♯ > n − 1.
Mit derselben Argumentation folgt rang A > n − 1. (Es folgt wegen det A =
0 sogar rang A♯ = n − 1 = rang A.) Da jedoch aus det A = 0 wie in Teil c)
rang (A♯ · A) = 0 folgt, gilt nach Lemma 2.5.5
( )
n − 2 6 rang A♯ + rang A − n 6 rang A♯ · A = 0 .
Wegen n > 3 ist n − 2 > 0, was ein Widerspruch ist. Also ist im Fall det A = 0
( )♯
ebenfalls A♯ = 0, was zu zeigen war.
2. Wegen m > n folgt rang A 6 n und rang B = rang t B 6 n. Aus Lemma 2.5.5
erhalten wir die Abschätzung
rang (A · t B) 6 min {rang A, rang B} 6 n < m .
Wegen A · t B ∈ M(m × m; K) und nach Eigenschaft D10 folgt det(A · t B) = 0.
3. Diese Aufgabe löst man durch geradlinige Rechnung; wir lassen die Lösung
daher aus.
4. Das Ergebnis erhält man z.B. durch Entwickeln nach Laplace. Wir wollen die-
se Aufgabe hier nicht ausführlich vorrechnen. Insbesondere ist die Determinante
immer > 0 für reelle a, b, c, d.
5. i) ⇒ ii): x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) seien linear abhängig. Dann exis-
tiert o.B.d.A. (siehe Aufgabe 1 zu 0.3) ein λ ∈ K mit yi = λ xi für 1 6 i 6 n. In
diesem Fall gilt für alle i, j
( ) ( )
xi yi xi λ xi
det = det = λ xi x j − λ xi x j = 0 .
xj yj xj λxj
( )
xi yi
ii) ⇒ i): Sei det = 0 für alle i, j. Nach Satz 3.3.6 ist dann der Rang
xj yj
( )
x1 · · · xn
der Matrix höchstens 1. Er ist genau 1, wenn x ̸= 0 oder y ̸= 0,
y1 · · · yn
andernfalls ist der Rang 0.
212 3 Determinanten

6. a) Gilt E = span (x, y) = span (x′ , y′ ), so existieren λ1 , λ2 , µ1 , µ2 ∈ R mit


x′ = λ1 x + λ2 y und y′ = µ1 x + µ2 y .
Aus der linearen Unabhängigkeit von ′ ′
( )x und y folgt
λ1 λ2
det = λ1 µ2 − λ2 µ1 ̸= 0 .
µ1 µ2
Bezeichnen wir nun p(x, y) = (pi j ) und p(x′ , y′ ) = (p′i j ), so folgt
( ′ ) ( )
x y′ λ1 xi + λ2 yi µ1 xi + µ2 yi
p′i j = det x′i y′i =
λ x + λ y µ1 x j + µ2 y j
( j j
) 1 j( 2 j )
D1 λ1 xi µ1 xi λ1 xi µ1 xi
= det + det
λ1 x j µ1 x j λ2 y j µ2 y j
| {z }
( =0 ) ( )
λ 2 yi µ 2 yi λ 2 yi µ 2 yi
+ det + det
λ1 x j µ1 x j λ2 y j µ2 y j
| {z }
=0
= λ1 µ2 xi y j − λ2 µ1 xi y j + λ2 µ1 yi x j − λ1 µ2 x j yi
( )
xi yi
= (λ1 µ2 − λ2 µ1 ) · det .
xj yj
Wie oben bereits gezeigt, ist λ := λ1 µ2 − λ2 µ1 ̸= 0. Da λ unabhängig von i und
j ist, folgt
p(x, y) = λ · p(x′ , y′ ) .
Die Eindeutigkeit der Plückerkoordinaten nur bis auf einen Faktor λ ̸= 0 mag
als Nachteil erscheinen. Die Plückerkoordinaten können jedoch als Punkte in
einem projektiven Raum betrachtet werden (zu projektiven Räumen vgl. [Fi3],
Kapitel 3). Da zwei Zahlentupel (x0 , . . . , xn ) und (y0 , . . . , yn ) genau dann den-
selben Punkt im projektiven Raum beschreiben, wenn ein λ ̸= 0 existiert mit
xi = λ · yi für i = 0, . . . , n, sind Plückerkoordinaten im projektiven Raum eindeu-
tig bestimmt.
b) Es sei E1 = span (x(1) , y(1) ) und E2 = span (x(2) , y(2) ). Die Basis des K n sei so
gewählt, dass x(1) = (1, 0, . . . , 0) und y(1) = (0, 1, 0, . . . , 0) gilt. p(E1 ) und p(E2 )
sind linear abhängig, d.h. es existiert ein λ ∈ K r 0, so dass für alle 1 6 i < j 6 n
gilt ( ) ( )
(1) (1) (2) (2)
xi yi xi yi
det (1) (1) = λ · det (2) (2) ,
xj yj xj yj
d.h. (1) (1) (1) (1) (2) (2) (2) (2)
xi y j − x j yi = λ (xi y j − x j yi ) .
Aufgrund der Koordinatenwahl gilt für i = 1
(1) (2) (2) (2) (2)
y j = λ x1 y j − λ x j y1 für alle j > 2 .
3.3 Minoren∗ 213

(1) (2) (2) (2) (2)


Ist j = 1, so gilt 0 = y1 = λ x1 y1 − λ x1 y1 , also ist
(2) (2)
y (1)
= −λ y1 · x(2) + λ x1 · y(2) ∈ E2 .
Eine ähnliche Überlegung liefert
(2) (2)
x(1) = λ y2 · x(2) − λ x2 · y(2) ∈ E2 ,
insgesamt also E1 ⊂ E2 , und wegen dimE1 = dimE2 folgt damit E1 = E2 .
c) Nach der Definition der Plückerkoordinaten folgt
p12 p34 − p13 p24 + p14 p23 = (x1 y2 − x2 y1 )(x3 y4 − x4 y3 )
−(x1 y3 − x3 y1 )(x2 y4 − x4 y2 )
+(x1 y4 − x4 y1 )(x2 y3 − x3 y2 ) = 0 .
Für die Umkehrung wählen wir ein p = (pi j ) ∈ K 6 r 0, das die Gleichung
p12 p34 − p13 p24 + p14 p23 = 0 (∗)
erfüllt. Wegen p ̸= 0 gibt es ein pi j ̸= 0. Wir betrachten den Fall p14 ̸= 0, der
Rest geht analog.
Wählen wir ( )
x = 1, pp24
14
, p34
p14
, 0 und y = (0, p12 , p13 , p14 ) ,
so sind x und y linear unabhängig, und es gelten wegen (∗) die Relationen
( )
x1 y1
det = 1 · p12 − 0 ,
( x2 y2 )
x1 y1
det = 1 · p13 − 0 ,
( x3 y3 )
x1 y1
det = 1 · p14 − 0 ,
( 4 y4 )
x
x2 y2
det = pp14
24
· p13 − pp34 · p12 = p23 ,
( x3 y3 )
14

x2 y2
det = pp14
24
· p14 − 0 = p24 ,
( x4 y4 )
x3 y3
det = pp34 · p14 − 0 = p34 ,
x4 y4 14

was zu zeigen war.


Die Gleichung (∗) heißt Plücker-Relation.
d) Wegen
4 = dim span (x, y) + dim span (x′ y′ )
= dim span (x, y, x′ , y′ ) + dim(E1 ∩ E2 )
ist E1 ∩ E2 ̸= {0} genau dann, wenn dim span (x, y, x′ , y′ ) < 4 gilt. Dies ist aller-
dings äquivalent zur linearen Abhängigkeit der Vektoren (x, y, x′ , y′ ), was genau
214 3 Determinanten

dann der Fall ist, wenn die Determinante der Matrix bestehend aus den Spalten-
vektoren (x, y, x′ , y′ ) gleich 0 ist.
Entwicklung der Matrix mit den Spaltenvektoren (x, y, x′ , y′ ) nach der ersten
Spalte ergibt
det(x, y, x′ , y′ ) = x1 (y2 q34 − y3 q24 + y4 q23 ) − x2 (y1 q34 − y3 q14 + y4 q13 )
+x3 (y1 q24 − y2 q14 + y4 q12 ) − x4 (y1 q23 − y2 q13 + y3 q12 )
= p12 q34 − p13 q24 + p14 q23 + p23 q14 − p24 q13 + p34 q12 ,
woraus die zweite Äquivalenz folgt.
Analog kann man für 1 6 k 6 n auch Plückerkoordinaten ( )eines k-dimensiona-
len Untervektorraumes E ⊂ K n einführen. Das sind die nk -Minoren einer aus
k Basisvektoren von E bestehenden Matrix. Analog zu Teil a) und b) zeigt man,
dass diese Plückerkoordinaten bis auf einen Faktor aus K r 0 eindeutig bestimmt
n
sind, ihnen somit ein eindeutiger Punkt im projektiven Raum P(K ( k ) ) zuge-
ordnet werden kann. Wir nennen die entsprechende Abbildung für beliebiges k
ebenfalls p.
Die Menge G(k, n), die durch
G(k, n) := {U ⊂ K n : dimU = k}
definiert wird, heißt Grassmann-Varietät oder Grassmann-Mannigfaltigkeit, sie-
he hierzu etwa [Sh], §4.1, [Ha], Lecture 6.
7. Wir beweisen die Behauptung per Induktion über n. Für n = 1 ist
det(x) = x11 sicher irreduzibel.
Um den Induktionsschritt zu zeigen, übetrachten wir die Summe
det(x) = ∑ sign (σ ) · x1σ (1) · . . . · xnσ (n)
σ ∈Sn
und übertragen sie durch Ausklammern in
det(x) = x1n ∑ sign (ρ ) · x2ρ (1) · . . . · xnρ (n−1)
ρ ∈Sn−1
+x2n ∑ sign (ρ ) · x1ρ (1) · x3ρ (2) · . . . · xnρ (n−1)
ρ ∈Sn−1
+ . . . + xnn ∑ sign (ρ ) · x1ρ (1) · . . . · xn−1ρ (n−1) .
ρ ∈Sn−1
Auf die Summen über Sn−1 in jedem Summanden können wir die Induktionsvor-
aussetzung anwenden; sie sind also irreduzibel. Daraus folgt jedoch unmittelbar
die Irreduzibilität von det(x), denn die einzelnen Summanden in der obigen Sum-
me sind teilerfremd.
3.3 Minoren∗ 215

Lösungen der Ergänzungsaufgaben


E1. Der erste Schritt – die Berechnung von A♯ – wurde bereits in der Lösung von
Aufgabe 1 a) zu 3.3 durchgeführt. Im zweiten Schritt berechnen wir
a♯♯
11 = a , a♯♯
12 = b , a♯♯
21 = c , a♯♯
22 = d ,

d.h. ( )♯ ( )
a b
A♯ = = A.
c d

E2. Durch Addition des (−1)-fachen der letzten Zeile zur zweiten bis
(n − 1)-ten Zeile erhalten wir
 
0 1 ··· ··· ··· 1
 0 −1 0 ··· 0 1 
 . . .. .. 
 .. . . . . . ..
. . . 
A′ := 
 .. .. ..

. .
 . . . 0 .. 
 
0 ··· ··· 0 −1 1
1 ··· ··· ··· 1 0

Nach Eigenschaft D7 der Determinante gilt det A = det A′ .


Nun entwickeln wir die Matrix A′ nach der ersten Spalte; das liefert
 
1 ··· ··· ··· 1
 −1 0 · · · 0 1 
 .. .. 
′  ... ... 
det A = (−1) n−1
· det  . .  = (−1)n−1 · det A′′ .
 . . 
 .. 0 .. 
0 −1 1
| {z }
n−1

Durch Addition der ersten bis (n − 1)-ten Spalte zur letzten Spalte überführen
wir die Matrix A′′ in die Form
 
1 ··· ··· ··· n−1
 −1 0 · · · 0 0 
 .. 
 .. .. .. 
A′′′ :=  . . . . .
 .. . 
 . 0 .. 
0 −1 0

Aufgrund von D7 und Satz 3.2.6 gilt det A′′′ = det A′′ , und entwickeln wir nun
216 3 Determinanten

A′′′ nach der letzten Spalte, so erhalten wir


 
−1 0
det A ′′′
= (−1) · (n − 1) · det 
n ... 
0 −1
| {z }
n−2
= (−1)n · (n − 1) · (−1)n−2 = n − 1 .
Damit folgt
det A = det A′ = (−1)n−1 · det A′′′ = (−1)n−1 · (n − 1) .
Man beachte, dass diese Determinante in einem Körper, dessen Charakteristik
die Zahl n − 1 teilt, gleich 0 ist. In diesem Fall sind die Zeilen der Matrix A
linear abhängig.

3.4 Determinante eines Endomorphismus und Orientierung∗


B (id) ∈ GL(n; K) wegen Bemerkung 2 aus 2.5.6
1. Für alle Basen A , B gilt MA
und Satz 1.5.2. Φ kann kein Gruppenhomomorphismus sein, denn X trägt keine
Gruppenstruktur. Wir müssen daher nur die Bijektivität von Φ als Mengenabbil-
dung nachweisen.
Angenommen MA B (id) = M B (id) = (a ). Dann gilt für alle Basisvektoren
A′ ij
ai ∈ A bzw. ai ∈ A ′

n n
ai := ∑ ai j · b j bzw. a′i := ∑ ai j · b j ,
j=1 j=1

wobei B = (b1 , . . . , bn ) ist. Daraus folgt A = A ′.

Φ ist surjektiv, weil wir für jedes A = (ai j ) ∈ GL(n; K) aus einer Basis
n
B = (b1 , . . . , bn ) eine neue Basis A := (a1 , . . . , an ) durch a j := ∑ ai j bi kon-
i=1
struieren können.
Der Zusammenhang zwischen Φ und der in 3.4.3 definierten kanonischen Ab-
bildung ist nun einzusehen, denn es gilt M(A ) = Φ(A ) = MAB (id), wenn man

für B die Standardbasis (e1 , . . . , en ) wählt.


2. Die Bezeichnungen seien wie in Definition 3.4.4 gewählt, und es sei
A = (ai j ) ∈ GL (n; R). Wir definieren φ : I → GL (n; R), t 7→ (ai j ), als den kon-
stanten Weg. Dieser ist sicher stetig, und für alle t ∈ I ist φ (t) = A invertierbar.
Das zeigt die Reflexivität der Verbindbarkeit.
Sind A, B ∈ GL (n; R) verbindbar, so existiert ein Weg φ : I → GL (n; R) mit
φ (α ) = A und φ (β ) = B sowie φ (t) ∈ GL (n; R) für alle t ∈ I. Definieren wir
3.4 Determinante eines Endomorphismus und Orientierung∗ 217

eine Abbildung
φ̃ : I → M(n × n; R) durch φ̃ (t) := φ (α + β − t) ,
so ist φ̃ stetig, da φ stetig ist und α + β − t ∈ I für jedes t ∈ I gilt. Aus der
Invertierbarkeit von φ für alle t ∈ I folgt die Invertierbarkeit von φ̃ für alle t ∈ I.
Schließlich folgt aus φ̃ (α ) = φ (β ) = B und φ̃ (β ) = φ (α ) = A, dass φ̃ ein Weg
von B nach A ist. Das zeigt die Symmetrie der Verbindbarkeit.
Für A, B,C ∈ GL (n; R) mit A ∼ B und B ∼ C existieren Wege φ1 mit φ1 (α1 ) =
A, φ1 (β1 ) = B bzw. φ2 mit φ2 (α2 ) = B, φ2 (β2 ) = C auf Intervallen I1 = [α1 , β1 ]
bzw. I2 = [α2 , β2 ], so dass φ1 (t) ∈ GL (n; R) für alle t ∈ I1 und φ2 (t) ∈ GL (n; R)
für alle t ∈ I2 gilt. Dabei können wir o.B.d.A. annehmen, dass I1 = I2 gilt, denn
sonst definiere
β1 − t t − α1
ξ : I1 → I2 , t 7→ · α2 + · β2 ,
β1 − α1 β1 − α1
und φ̃ := φ2 ◦ ξ ist ein Weg mit dem Definitionsbereich I1 . (Man beachte, dass
wir hierdurch sogar o.B.d.A. I = [0, 1] annehmen können, was bei Rechnungen
häufig Vorteile bringt, in unserem Fall jedoch egal ist.)
Es sei also I = [α , β ] = I1 = I2 . Wir definieren jetzt eine Abbildung
φ : I → M(n × n; R) durch
{
φ1 (2t − α ) für α 6 t 6 α +2 β ,
φ (t) :=
φ2 (2t − β ) für α +2 β 6 t 6 β .
Die Abbildung φ ist wohldefiniert und stetig, da
φ1 (2 · α +2 β − α ) = φ1 (β ) = B = φ2 (α ) = φ2 (2 · α +2 β − β )
gilt und φ1 bzw. φ2 stetig sind. Da für alle t ∈ I die Matrizen φ1 (t) und φ2 (t)
invertierbar sind, folgt φ (t) ∈ GL (n; R) für alle t ∈ I.
Ferner gilt
φ (α ) = φ1 (2α − α ) = A und φ (β ) = φ2 (2β − β ) = C ,
also ist φ ein Weg von A nach C.
Anschaulich werden beim Durchlaufen des Weges φ die Wege φ1 und φ2
nacheinander mit doppelter Geschwindigkeit durchlaufen.
Wege zwischen zwei Punkten eines Raumes werden vor allem in der Topologie
verwendet. Mit ihrer Hilfe kann untersucht werden, ob ein topologischer Raum
T wegzusammenhängend ist oder nicht (vgl. [C-V], Section 2.C. bzw. [O], Ab-
schnitte 1.2 und 2.3), d.h. ob zwischen zwei beliebigen Punkten aus T ein Weg
existiert. Nach Lemma 2 aus 3.4.4 ist GL (n; R) nicht wegzusammenhängend,
wohingegen die topologischen Räume M(n × n; R) und GL (n; C) nach den Auf-
gaben 4 und 5 wegzusammenhängend sind.
218 3 Determinanten

3. Die Behauptung folgt aus dem Beweis von Satz 2.7.3, indem man den letz-
ten Schritt der Normierung der Diagonalelemente weglässt, zusammen mit der
Bemerkung am Ende von Abschnitt 2.7.4.
4. Zunächst müssen wir klären, was Verbindbarkeit in der Menge M(m × n; R)
bedeutet. Dazu seien A, B ∈ M(m × n; R). Unter einen Weg von A nach B verste-
hen wir eine stetige Abbildung
( )
φ : I → M(m × n; R) , t 7→ φ (t) = φi j (t) ,
wobei I = [α , β ] ⊂ R ein Intervall ist, mit φ (α ) = A und φ (β ) = B. Die Stetigkeit
von φ bedeutet dabei wie in Abschnitt 3.4.4, dass alle Abbildungen φi j : I → R
stetig sind. Im Unterschied zu Abschnitt 3.4.4 muss hier jedoch keine Matrix
φ (t) ∈ M(m × n; R) invertierbar sein; das ist für nichtquadratische Matrizen oh-
nehin nicht möglich.
Die Matrizen A und B heißen verbindbar, wenn ein Weg von A nach B exis-
tiert.
Es seien nun A = (ai j ) und B = (bi j ) zwei Matrizen aus M(m × n; R). Wir
definieren zu jedem Paar (i, j) eine stetige Abbildung
φi j : [0, 1] → R mit φi j (0) = ai j und φi j (1) = bi j
durch
φi j (t) := (1 − t) · ai j + t · bi j .
( )
Damit wird durch φ := φi j ein Weg von A nach B definiert.
5. Wir zeigen in Analogie zu Lemma 3 aus 3.4.4:

Ist A ∈ GL (n; C) gegeben, so gibt es einen Weg von A nach En . (∗)


Da die Verbindbarkeit auch in GL (n; C) eine Äquivalenzrelation ist – der Beweis
verläuft genauso wie in Aufgabe 2 – folgt daraus sofort die Behauptung.
Es bleibt (∗) zu zeigen. Dabei verläuft die erste Etappe analog wie im Beweis
des Lemmas 3 in 3.4.4. Nach Aufgabe 3 kann die Matrix A durch Spaltenumfor-
mungen vom Typ III in eine Diagonalmatrix
 
λ1 0
D= ..
. 
0 λn
mit λi ̸= 0 für alle i überführt werden. Da GL (n; R) ⊂ GL (n; C) gilt, sind die im
Beweis von Lemma 3 konstruierten Wegstückchen auch in diesem Fall verwend-
bar.
3.4 Determinante eines Endomorphismus und Orientierung∗ 219

Im zweiten Schritt müssen die λi mit Hilfe stetiger Abbildungen φi in 1 über-


führt werden. Die geometrische Idee ist dabei, in einer Schraubenlinie um den
Ursprung der komplexen Ebene einen Weg von λi zur 1 zu durchlaufen, wie in
Bild 3.1 erkennbar:

Bild 3.1

Um eine solche Abbildung φi zu konstruieren, verwenden wir Polarkoordinaten


in der komplexen Ebene. Es seien λi = (ri , αi ) die Polarkoordinaten der Diago-
naleinträge der Matrix D. Wir definieren
φi : I = [0, 1] → C , t 7→ (ri + t · (1 − ri ), (1 − t) · αi ) .
Die Abbildungen φi sind stetig, und es gilt φi (t) ̸= 0 für alle t ∈ I, d.h. die Matrix
 
φ1 (t) 0
φ (t) =  ..
. 
0 φn (t)
ist für alle t ∈ I invertierbar. Ferner gilt
φ (0) = D und φ (1) = En ,
also haben wir einen Weg von A nach En konstruiert.

Lösung der Ergänzungsaufgabe


E1.

det(A) = 1 , det(B) = 40 ,
det(C) = −3 , det(D) = −192 ,
det(E) = −2999 , det(F) = −6 ,
det(G) = 5 , det(H) = −9 ,
det(I) = 288 (Vandermonde, s. 3.2.7), det(J) = 1 ,
det(K) = 91 + i , det(L) = −117 + 141i ,
det(M) = −38 + 44i , det(N) = 16 − 56i ,
det(O) = 2i .
Kapitel 4
Eigenwerte

4.1 Beispiele und Definitionen


1. Ist F nilpotent, so existiert ein m ∈ N mit F m = 0.
Es sei λ ein Eigenwert von F. Für einen Eigenvektor v ̸= 0 zu λ gilt
F(v) = λ · v. Erneute Anwendung von F liefert F 2 (v) = λ 2 · v, und nach schließ-
lich m-maliger Anwendung von F gelangen wir zu
0 = F m (v) = λ m · v ,
d.h. λ m = 0 wegen v ̸= 0. Da λ ∈ K folgt λ = 0, also ist 0 einziger Eigenwert
von F.
2. Die hier betrachtete lineare Abbildung F operiert auf einem unendlichdimen-
sionalen Vektorraum, Matrizenkalkül ist also in diesem Fall nicht anwendbar.
a) Es bezeichne M die Menge aller Eigenwerte von F. Für einen Eigenwert
λ ∈ M und einen zugehörigen Eigenvektor φ gilt φ ′′ = λ φ .
Sei dazu zunächst φ (t) = eµ t , dann gilt φ ′′ = µ 2 φ . Die Abbildung R → R+ ,
µ 7→ µ 2 ist surjektiv, daher ist R+ ⊂ M.
Wählt man nun φ (t) = cos(µ t), so gilt φ ′′ = −µ 2 φ . Mit derselben Argumen-
tation wie oben folgt, dass R− ⊂ M. Insgesamt ist M = R, d.h. jede reelle Zahl
ist Eigenwert von F.
b) Zur Lösung dieser und der nächsten Aufgabe sind Kenntnisse über Diffe-
rentialgleichungen nötig. Das nötige Hintergrundwissen hierzu findet man bei-
spielsweise in [Fo2], Kapitel II. Man bestimmt mit Eig (F, −1) genau die Lö-
sungsmenge der Differentialgleichung φ ′′ = −φ . Die allgemeine Lösung dieser
Differentialgleichung hat nach Aufgabe 12 zu Abschnitt 3.2 die Form
φ = α cos +β sin mit α , β ∈ R .
Es gilt also Eig (F, −1) = span (cos, sin).
3. a) Mit φ ′ (t) = λ · eλ t · v = λ · φ (t) sowie A · φ (t) = eλ t · A · v folgt
φ ′ (t) = A · φ (t) ⇔ λ · eλ t · v = eλ t · A · v ⇔ λ · v = A · v .
b) Zunächst nehmen wir an, dass v1 , . . . , vk linear unabhängig sind. Sind dann
α1 , . . . , αk ∈ R gegeben mit α1 φ (1) + . . . + αk φ (k) = 0, so gilt für alle t0 ∈ R
α eλ1t0 v + . . . + αk eλk t0 vk = 0 .
| 1{z } 0 | {z }
∈R ∈R

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_12
4.1 Beispiele und Definitionen 221

Aus der linearen Unabhängigkeit der vi folgt


α1 eλ1t0 = . . . = αk eλk t0 = 0 .
Da eλ t ̸= 0 für alle λ ,t ∈ R gilt, folgt α1 = . . . = αk = 0 und damit die Behaup-
tung.
Um die andere Richtung zu zeigen, sei t0 ∈ R beliebig und α1 , . . . , αk ∈ R
gegeben mit (∗)
α1 φ (1) (t0 ) + . . . + αk φ (k) (t0 ) = 0 .
Wir definieren φ := α1 φ (1) + . . . + αk φ (k) , ferner sei 0(t) = 0 die Nullfunktion.
Dann gilt φ , 0 ∈ L0 und φ (t0 ) = 0 = 0(t0 ). Aus dem Existenz- und Eindeu-
tigkeitssatz (vgl. [Fo2], §10) folgt φ = 0 in D(I, Rn ), und wegen der linearen
Unabhängigkeit der φ (i) gilt damit α1 = . . . = αk = 0.
Für t0 = 0 schreibt sich (∗) als α1 v1 + . . . + αk vk = 0, wegen αi = 0 für
i = 1, . . . , k sind die v1 , . . . , vk linear unabhängig.
Es ist bemerkenswert, dass wir mehr bewiesen haben, als in der Aufgabe gefor-
dert war, denn unter den Annahmen der Aufgabe wurde die Äquivalenz der drei
folgenden Aussagen gezeigt:
i) φ (1) , . . . , φ (k) sind linear unabhängig in D(I; Rn );
ii) für alle t0 ∈ R sind φ (1) (t0 ), . . . , φ k) (t0 ) linear unabhängig in Rn ;
iii) die Vektoren v1 , . . . , vn sind linear unabhängig in Rn .
4. Ist −1 Eigenwert von F 2 + F, so existiert ein 0 ̸= v ∈ V mit
(F 2 + F)(v) = F 2 (v) + F(v) = −v .
Daraus folgt F 2 (v) + F(v) + v = 0. Wendet man auf diese Gleichung erneut F
an, so erhält man
( )
0 = F F 2 (v) + F(v) + v = F 3 (v) + F 2 (v) + F(v) = F 3 (v) − v ,
oder F 3 (v) = v. Damit hat F 3 den Eigenwert 1, und der Eigenvektor von F 2 + F
zum Eigenwert −1 ist auch Eigenvektor von F 3 zum Eigenwert 1.
5. a) Die Behauptung folgt aus
G ◦ F(G(v)) = G(F ◦ G(v)) = G(λ v) = λ G(v) .
b) Da die Aussage symmetrisch in F und G ist, genügt es, eine Inklusion zu
zeigen, d.h. wir brauchen nur nachzuweisen, dass alle Eigenwerte von F ◦ G
auch Eigenwerte von G ◦ F sind.
Für G(v) ̸= 0 folgt die Behauptung aus a). Ist G(v) = 0, so folgt λ = 0. Es
genügt in diesem Fall zu zeigen, dass Ker (G ◦ F) ̸= {0} ist. Wegen v ∈ Ker G ist
für den Fall ImF ∩ Ker G ̸= {0} alles klar. Gilt ImF ∩ Ker G = {0}, so ist F nicht
surjektiv und nach Korollar 3 aus 2.2.4 nicht injektiv, also ist Ker F ̸= {0} und
somit Ker (G ◦ F) ̸= {0}.
222 4 Eigenwerte

Man beachte, dass die Behauptung für einen unendlichdimensionalen Vek-


torraum V falsch ist. Hierzu betrachte man V = RN und die Endomorphis-
F G
men (x1 , x2 , . . .) 7→ (0, x1 , x2 , . . .) sowie (x1 , x2 , . . .) 7→ (0, x2 , x3 , . . .). Dann gilt
F ◦ G(x1 , x2 , . . .) = (0, 0, x2 , x3 , . . .), und 0 ist Eigenwert dieser Abbildung. An-
dererseits ist G ◦ F(x1 , x2 , . . .) = (0, x1 , x2 , . . .) injektiv, also ist 0 kein Eigenwert
von G ◦ F.
Lösung der Ergänzungsaufgabe
E1 a) Mithilfe eines CAS ergibt sich die Vermutung
 1 1 1 1 
4 4 4 4
 1 1 1 1 
lim Pn = A = 

4
1
4
1
4
1
4
1
.
 ~
n→∞
4 4 4 4
1 1 1 1
4 4 4 4
( )
1 1 1 1
Damit ergäbe sich lim π0 · Pn = π0 · A = , , , = π , und es gilt |π | = 1
2
n→∞ 4 4 4 4
sowie π · P = π (vgl. auch Teil c)).
b) Der Beweis von ~ verläuft per Induktion über n. Die Behauptung lautet
(n)
Pn = (pi j )16i, j64 mit
(n) 1 1
pii = (−1)n · + und
4 · 3n−1 4
(n) 1 1
pi j = (−1)n−1 · + i ̸= j.
4 · 3n 4
Für n = 1 gilt
(1) 1 1 (1) 1 1 1
pii = (−1)1 · + = 0 und pi j = (−1)0 · + = .
4 4 12 4 3
Den Induktionsschritt n → n + 1 erhält man für
   1 1 1 
(n) (n) 0
p11 pi j 3 3 3
   1 0 1 1 
= P ·P =  .   
· 1
n+1 n .. 3 3 3
P 1 1 
(n) (n) 3 3 0 3
pi j p44 1 1 1
0
3 3 3

mit
( ) ( )
(n+1) 1 1 1 1 1
pii = (−1)n · + · 0 + 3 · · (−1)n−1 · +
( 4·3 n−1 4) 3 4·3n 4
1 1
= (−1) n−1
· + ,
4 · 3n 4
4.2 Das charakteristische Polynom 223

und ( ) ( )
(n+1) 1 1 1 1 1 1
pi j = · (−1)n · + + 2 · · (−1) n−1
· +
3 4 · 3n−1 4 3 4 · 3n 4
1 1 2 1
= (−1) · n
+ + (−1) n−1
· +
4 · 3n ( 12 ) 4 · 3n+1 6
1 1 1
= (−1)n−1 · − +
4 · 3n 3 4
1 1
= (−1)n · + für i ̸= j.
4 · 3n+1 4
Hiermit ergibt sich
(n)
Pn − A = (pi j )16i, j64 mit
(n) 1
pii = (−1)n · und
4 · 3n−1
(n) 1
pi j = (−1)n−1 · ,
4 · 3n
woraus (n)
lim p =0 ∀ 1 6 i, j 6 4
n→∞ i j
folgt. Damit gilt ( )
1 1 1 1
lim π0 · P = π0 · A = , , , = π,
n→∞ 4 4 4 4
was zu zeigen war.
c) Dass es sich bei π um einen Eigenvektor von P zum Eigenwert 1 handelt, lässt
sich mithilfe einer simplen Rechnung bestätigen.

4.2 Das charakteristische Polynom


1. Mit der Bezeichnung ( )
2 2 3
A := 1 2 1
2 −2 1
gilt
PA (t) = det (A − t · E3 ) = −t 3 + 5t 2 − 2t − 8 = −(t + 1)(t − 2)(t − 4) ,
die Eigenwerte sind also −1, 2 und 4.
Wir bestimmen zunächst Eig (A; −1) = Ker (A + E3 ) durch geeignete Zeilen-
umformungen
( ) ( )
3 2 3 1 0 1
A + E3 = 1 3 1 ; 0 1 0 ,
2 −2 2 0 0 0
aus denen Eig (A; −1) = span t (1, 0, −1) folgt.
224 4 Eigenwerte

Eig (A; 2) = Ker (A − 2E3 ) bestimmen wir auf dieselbe Art:


( ) ( )
0 2 3 0 2 3
A − 2E3 = 1 0 1 ; 1 0 1 ,
2 −2 −1 0 0 0
und hieraus lesen wir Eig (A; 2) = span t (2, 3, −2) ab.
Für Eig (A; 4) = Ker (A−4E3 ) schließlich erhalten wir den Eigenraum Eig (A; 4) =
span t (8, 5, 2).
Es bezeichne nun ( )
−5 0 7
B := 6 2 −6 .
−4 0 6
Dann gilt
PB (t) = det (B − t · E3 ) = −t 3 + 3t 2 + 4 = −(t + 1)(t − 2)2 .
Zunächst bestimmen wir Eig (B; −1) = Ker (B + E3 ):
( ) ( )
−4 0 7 −4 0 7
B + E3 = 6 3 −6 ; 0 2 3
−4 0 7 0 0 0
führt zu Eig (B; −1) = span t (7, −6, 4).
Nun bestimmen wir Eig (B; 2) = Ker (B − 2E3 ): Aus
( ) ( )
−7 0 7 −1 0 1
B − 2E3 = 6 0 −6 ; 0 0 0
−4 0 4 0 0 0
erhalten wir Eig (B; 2) = span ( t (1, 0, 1), t (0, 1, 0)).
Hier haben wir eine Besonderheit, da der Eigenraum von B zum Eigenwert 2
die Dimension 2 hat, die gleich der Multiplizität der Nullstelle 2 von PB (t) ist.
Ein solches Ergebnis ist für die Diagonalisierbarkeit eines Endomorphismus von
Bedeutung, vgl. Abschnitt 4.3, insbesondere Aufgabe 2.
( )
a b
2. Ist A ∈ M(2 × 2; R) symmetrisch, so ist A von der Gestalt A = mit
b c
a, b, c ∈ R. Für das charakteristische Polynom folgt daraus
( )
a−t b
PA (t) = det = t 2 − (a + c)t − b2 .
b c−t
Die Diskriminante (vgl. [Scha], Kapitel 3) (a + c)2 + 4b2 ist immer größer oder
gleich null, für a ̸= −c und b ̸= 0 sogar echt größer als null. Daher hat PA (t) nur
reelle Nullstellen, also A nur reelle Eigenwerte.
4.2 Das charakteristische Polynom 225

3. Wegen PF (t) = det(A − t · En ) gilt PF (0) = det A, daher ist nach Bemerkung
3.4.1 PF (0) ̸= 0 gleichbedeutend mit der Surjektivität von F. Ist V endlichdimen-
sional, so ist dies nach Korollar 3 aus 2.2.4 äquivalent dazu, dass F ein Isomor-
phismus ist.
4. Wir führen Induktion über n. Der Induktionsanfang ist trivial. Betrachten wir
 
−t 0 · · · 0 −α 0
 1 −t . . . .. . .
.. 
 
 . . 
PA (t) = det  1 .. 0 .
. ,
 
 . . . −t 
−αn−2
0 1 −αn−1 − t
so erscheint eine Entwicklung nach der ersten Zeile sinnvoll. Dies ergibt
 
−t 0 · · · 0 −α1
 1 −t . . . .. . .
.. 
 
 . . 
PA (t) = (−t) · det  0 1 . . 0 .
. 
 
 .. . . . . . . 
. −t αn−2
0 ··· 0 1 −αn−1 − t
 
1 −t 0
 .. .. 
 . . 
+ (−1)n · α0 · det  .
 . . . −t 
0 1
Die Determinante der zweiten Matrix ist 1, und auf die erste Matrix können wir
die Induktionsannahme anwenden, womit wir
( )
PA (t) = (−t) · (−1)n−1 t n−1 + αn−1t n−2 + . . . + α1 + (−1)n · α0
( )
= (−1)n t n + αn−1t n−1 + . . . + α1t + α0
erhalten, was zu zeigen war.
2
5. Wir fassen die Abbildung Φ als Endomorphismus des K n auf; die Koordina-
ten werden dabei wie folgt durchnummeriert:
t
(x11 , . . . , xn1 , x12 , . . . , xn2 , . . . , xnn ) .
Die Matrix B lautet damit B = t (b11 , . . . , bn1 , b12 . . . , bn2 , . . . , bnn ), und die Ab-
bildung Φ kann als (n2 × n2 )-Matrix geschrieben werden. Für die Einträge von
( ) 2
Φ(B)i j ∈ K n folgt damit
n
Φ(B)i j = ∑ ail bl j .
l=1
226 4 Eigenwerte

Somit hat Φ die Darstellung


 
A
 
 A 
Φ= ... ,
 
A
wobei die Matrix A genau n-mal in der Diagonale steht. Nach der Eigenschaft
D9 aus 3.1.3 folgt det Φ = (det A)n und damit auch PΦ = (PA )n .
Lösungen der Ergänzungsaufgaben
E1. a) Es ist
PA (t) = det(A − t · E3 )
( )
1−t 3 0
= det −2 2 − t −1
4 0 −2 − t
= −t 3 + t 2 − 2t − 28
b) Hier gilt
( )
1−t 2 3
PB (t) = det 4 5−t 6
7 8 9−t
= −t 3 + 15t 2 + 18t

E2. Wir beginnen mit der Matrix A. Hier ergibt sich für das charakteristische
Polynom
( )
1−t −1
PA (t) = det(A − t · E2 ) = det
2 −1 − t
= (1 − t)(−1 − t) + 2
= t2 + 1 .
PA (t) = t 2 + 1 besitzt in R keine Nullstellen, also existiert kein Eigenwert und
damit auch kein Eigenvektor von A über den reellen Zahlen. Über den komplexen
Zahlen gilt PA (t) = (t + i)(t − i), womit sich die Matrizen
( )
1−i −1
A1 = A − i · E2 = für t = i
2 −i − 1
und ( )
1+i −1
A2 = A + i · E3 = für t = −i
2 −1 + i
ergeben.
4.3 Diagonalisierung 227

Wir beginnen mit der Berechnung für A1 und bestimmen den Kern. Es ergibt
sich ( ) ( )
1−i −1 1 − i −1
; .
2 −i − 1 0 0
( )
1
Ein Eigenvektor zum Eigenwert i ist damit gegeben durch 1−i . Es handelt sich
um eine Basis des Eigenraums.
Für A2 gilt ( ) ( )
1+i −1 1 + i −1
;
2 −1 + i 0 0
( )
1
und eine Basis des Eigenraums ist gegeben durch 1+i . Die beiden Einheits-
vektoren bilden auch eine C-Basis des C2 , d.h. A ist über C diagonalisierbar.
Das charakteristische Polynom der Matrix B ist gleich
( )
3 − t −1
PB (t) = det(B − t · E2 ) = det
1 1−t
= (3 − t)(1 − t) + 1
= t 2 − 4t + 4 = (t − 2)2 .
Der einzige Eigenwert über R ist t = 2. Über C existiert kein weiterer Eigenwert,
daher betrachten wir hier lediglich die reellen Zahlen. Es gilt
( ) ( )
1 −1 1 −1
B1 = B − t · E2 = ; .
1 −1 0 0
Ein
( )Eigenvektor und damit eine Basis des Eigenraums zum Eigenwert 2 ist daher
1
1 . Dieser Einheitsvektor ist keine Basis des R .
2

4.3 Diagonalisierung
Bevor wir beginnen, charakteristische Polynome sowie deren Nullstellen und Eigen-
räume zu berechnen, schicken wir eine Bemerkung vorweg, die uns das Leben in den
Aufgaben 1 bis 3 erleichtern wird:
Zur Beurteilung der Diagonalisierbarkeit eines Endomorphismus müssen wir wegen
1 6 dim Eig (A; λ ) 6 µ (PA ; λ ) die Dimension der Eigenräume nur für mehrfache Null-
stellen des charakteristischen Polynoms bestimmen, da für einfache Nullstellen λ von
PA die Beziehung dim Eig (A; λ ) = µ (PA ; λ ) automatisch erfüllt ist.
1. Nach der obenstehenden Bemerkung ist für
PF (t) = ±(t − λ1 ) · . . . · (t − λn )
mit paarweise verschiedenen λi insbesondere dim Eig (F; λi ) = µ (PF , µ ) = 1 für
alle i = 1, . . . , n, d.h. die Voraussetzung für Theorem 4.3.3 ii) ist erfüllt.
228 4 Eigenwerte

2. Für die Matrix  


1 2 0 4
 0 2 3 1 
A=
0 0 3 0 
0 0 0 3
ist das charakteristische Polynom besonders leicht zu berechnen, da A obere
Dreiecksmatrix ist. Man erhält
PA (t) = (1 − t)(2 − t)(3 − t)2 .
Nach obiger Bemerkung ist nur dim Eig (A; 3) = dim Ker (A − 3E4 ) zu bestim-
men:  
−2 2 0 4
 0 −1 3 1 
A − 3E4 = 
0 0 0 
.
0
0 0 0 0
Der Rang von A − 3E4 ist 2, also gilt dim Eig (A; 3) = 2 = µ (PA ; 3) und A ist
diagonalisierbar.
Das charakteristische Polynom(und die Eigenräume ) von
−5 0 7
B= 6 2 −6
−4 0 6
haben wir bereits in Aufgabe 1 zu Abschnitt 4.2 bestimmt. Aufgrund von
dim Eig (B; 2) = µ (PB ; 2) ist B diagonalisierbar.
Für ( )
2 1 2
C = −2 −2 −6
1 2 5
ist
PC (t) = −t + 5t − 8t + 4 = −(t − 1)(t − 2)2 .
3 2

Wir bestimmen dim Eig (C; 2):


( ) ( )
0 1 2 1 0 −1
C − 2E3 = −2 −4 −6 ; 0 1 2 .
1 2 3 0 0 0
Hier ist dim Eig (C; 2) = 1 < 2 = µ (PC ; 2) und C nicht diagonalisierbar.
3. Um die Abhängigkeit von den beiden Parametern a und b zu kennzeichnen,
bezeichnen wir die gegebene Matrizenschar
( durch)
−3 0 0
Aa,b := 2a b a .
10 0 2
Entwicklung nach der ( ersten Zeile liefert für das
) charakteristische Polynom
−3 − t 0 0
PAa,b (t) = det 2a b−t a = (−3 − t)(b − t)(2 − t) .
10 0 2−t
4.3 Diagonalisierung 229

Für b ∈ R r {−3, 2} hat PAa,b (t) für alle a ∈ R drei verschiedene Nullstellen und
ist daher nach Satz 4.3.1 diagonalisierbar.
Ist b = −3, so lautet PAa,−3 (t) = (−3 − t)2 (2 − t), und wir bestimmen nach
dem System von Aufgabe 2 den Rang der Matrix
( ) ( )
0 0 0 2 0 1
Aa,−3 + 3E3 = 2a 0 a ; 0 0 0 ,
10 0 5 0 0 0
der für alle a stets 1 beträgt. Dann gilt
( )
dim Eig (Aa,−3 ; −3) = 2 = µ PAa,−3 ; −3 ,
und A ist nach Theorem 4.3.3 diagonalisierbar.
Es bleibt der Fall b = 2. Hier gilt PAa,2 (t) = (−3 −t)(2 −t)2 , daher bestimmen
wir dim Eig (Aa,2 ; 2) in Abhängigkeit von a:
( ) ( )
−5 0 0 1 0 0
Aa,2 − 2E3 = 2a 0 a ; 0 0 a .
10 0 0 0 0 0
Für a = 0 ist rang (A0,2 − 2E3 ) = 1, d.h. dim Eig (A0,2 ; 2) = 2 = µ (PA0,2 ; 2), und
A0,2 ist diagonalisierbar. Ist a allerdings von null verschieden, so gilt
Eig (Aa,2 ; 2) = span t (0, 1, 0), und Aa,2 ist nicht diagonalisierbar.
Wir fassen zusammen: Aa,b ist nur dann nicht diagonalisierbar, wenn b = 2
und a ̸= 0 ist.
4. Wie bereits in 4.3.5 berechnet, lautet das charakteristische Polynom von A
PA (λ ) = λ 2 + 2µλ + ω 2 .
a) Für den Fall µ > ω lauten die Nullstellen von PA (t)
√ √
λ1 = −µ + µ 2 − ω 2 und λ2 = −µ − µ 2 − ω 2 .
Wir berechnen zunächst ( )
−λ 1 1
Eig (A; λ1 ) = Ker (A − λ1 E2 ) = Ker
−ω −2µ − λ1
2
( )
0 0
= Ker = span t (1, λ1 ) ,
−ω 2 λ2
wobei wir λ1 · λ2 = ω 2 und λ1 + λ2 = −2µ benutzt haben.
Für den zweiten Eigenraum berechnen wir analog
( )
0 0
Eig (A; λ2 ) = Ker (A − λ2 E2 ) = Ker = span t (1, λ2 ) .
−ω 2 λ1
Eine Basis des R2 aus Eigenvektoren von A ist damit gegeben durch
( )
B = t (1, λ1 ), t (1, λ2 ) ,
230 4 Eigenwerte

und nach Aufgabe 3 zu 4.1 ist


( )
eλ1t (1, λ1 ), eλ2t (1, λ2 )
eine Basis des Lösungsraumes L0 von ẏ = A · y. Die allgemeine Lösung von (∗)
hat die Form ( ) ( )
1 1
α1 eλ1t + α2 eλ2t
λ1 λ2
mit α1 , α2 ∈ R. Die Bedingungen y0 (0) = α und y1 (0) = β bedeuten dann
α1 + α2 = α und α1 λ1 + α2 λ2 = β ,
durch einfache Umformung ergibt sich die Lösung
β − λ2 α β − λ1 α
α1 = und α2 = .
λ1 − λ2 λ2 − λ1
Man beachte, dass die allgemeine Lösung der Differentialgleichung
ÿ + 2µ ẏ + ω 2 y = 0
durch
y0 (t) = α1 eλ1t + α2 eλ2t
gegeben ist, also sofort aus der oben gefundenen Lösung abgelesen werden
kann. Durch die Wahl von 1 für die erste Koordinate der Basen der Eigenräume
von A hat diese Lösung eine besonders einfache Form.
b) Für µ 2 − ω 2 < 0 ist ω 2 − µ 2 > 0, daher gilt für die Nullstellen λ1,2 von PA
√ √
λ1 = −µ + i ω 2 − µ 2 und λ2 = −µ − i ω 2 − µ 2 .
Die Eigenräume berechnen wir wie in a) und erhalten
Eig (A; λ1 ) = span (1, λ1 ) und Eig (A; λ2 ) = span (1, λ2 ) .
Damit ist eine Basis des C2 aus Eigenvektoren von A gegeben durch
B = ((1, λ1 ), (1, λ2 )) .

Um die Lösung von (∗) zu bestimmen, setzen wir γ := ω 2 − µ 2 und multipli-
zieren den ersten der beiden Basisvektoren
( aus B mit eλ1t : )
e−µ t · eiγ t
v := eλ1t (1, λ1 ) = .
e−µ t · (−µ + iγ )eiγ t
Der Realteil und der Imaginärteil von v bilden eine Basis des Lösungsraumes
von (∗). Zur deren Berechnung nutzen wir eiγ t = cos(γ t) + i sin(γ t) (Formel von
Euler) und erhalten so
e−µ t · eiγ t = e(−µ t cos(γ t) + i · e−µ t sin(γ t) , )
e−µ t · (−µ + iγ )eiγ t = −(µ e−µ t cos(γ t) − γ e−µ t sin(γ t) )
+i γ e−µ t cos(γ t) − µ e−µ t sin(γ t) ,
4.3 Diagonalisierung 231

also ( )
−µ t cos(γ t)
re v = e
−µ cos(γ t) − γ sin(γ t)
und ( )
sin(γ t)
im v = e−µ t .
γ cos(γ t) − µ sin(γ t)
Die allgemeine
( ( Lösung von (∗) hat somit
) die
( Form ))
− µ cos(γ t) sin(γ t)
e t α1 + α2 ,
−µ cos(γ t) − γ sin(γ t) γ cos(γ t) − µ sin(γ t)
und y0 (0) = α und y1 (0) = β bedeuten
α1 = α , −µα1 + γα2 = β .
Die Lösung dieses Gleichungssystems lautet
β + µα
α1 = α und α2 = .
γ
5. Als erstes berechnen wir die charakteristischen Polynome der beiden Matri-
zen. Sie lauten
PA (t) = (t + 2)(t − 1)(t − 2)2 und PB (t) = (t + 2)(t + 1)(t − 1)2 .
Die Eigenvektoren müssen nun (insbesondere zu den doppelt auftretenden Ei-
genwerten) so gewählt werden, dass sie stets Eigenvektoren von beiden Matrizen
sind. Wir ermitteln
Eig (A; −2) = span t (1, 3, −1, 1) , Eig (B; −2) = span t (1, 1, 0, 1) ,
Eig (A; 1) = span t (1, 0, 1, 0) , Eig (B; −1) = span t (1, 3, −1, 1) ,
t
Eig (A; 2) = span ( (1, 1, 1, 0), Eig (B; 1) = span (t (1, 1, 1, 0),
t (0, 0, −1, 1)) , t (1, 0, 1, 0)) .

Ein Basiswechsel für Eig (A; 2) führt zum gewünschten Ergebnis, nur Vektoren
zu verwenden, die Eigenvektoren beider Matrizen sind. Wir wählen daher
Eig (A; 2) = span (t (1, 1, 1, 0), t (1, 1, 0, 1)),
denn t (0, 0, −1, 1) = − t (1, 1, 1, 0) + t (1, 1, 0, 1), siehe Austauschlemma 1.5.4.
Die Eigenvektoren, die die Spalten von S−1 bilden sollen, sind nun noch in eine
Reihenfolge zu bringen, die gewährleistet, dass in den Diagonalmatrizen SAS−1
und SBS−1 gleiche Eigenwerte nebeneinander stehen. Wir wählen
   
1 1 1 1 1 0 −1 −1
 3 0 1 1   3 −1 −2 −2 
S−1 =  −1 1 1 0  , dann ist S =  −2 1 2 1 ;
1 0 0 1 −1 0 1 2
sie liefern das gewünschte Ergebnis.
232 4 Eigenwerte

6. Seien λ1 , . . . , λk die Eigenwerte von A und v1 , . . . , vk die zugehörigen Eigen-


vektoren. Ferner seien µ1 , . . . , µl die Eigenwerte von B und w1 , . . . , wl die zu-
gehörigen Eigenvektoren. Wegen BA(wi ) = AB(wi ) = µi A(wi ) ist A(wi ) Eigen-
vektor von B zum Eigenwert µi . Da jedoch alle Eigenwerte von B einfach sind,
existiert ein λ ∈ K mit A(wi ) = λ wi , also ist wi Eigenvektor von A. Genauso
kann man zeigen, dass alle Eigenvektoren von A auch Eigenvektoren von B sind.
7. Wir betrachten 
die obere Dreiecksmatrix 
λ a12 · · · a1 µ
 . . .. 
 . . . . . 
 0 
A :=  . . . aµ −1,µ  ∈ M(n × n; K) .

 
 0 λ 
0 0
Das charakteristische Polynom lautet
PA (t) = (λ − t)µ · (−t)n−µ ,
also µ (PA ; λ ) = µ . dim Eig (A; λ ) = 1 ist gleichbedeutend mit
 
0 a12 · · · a1 µ
 .. .. .. 
 . . . 
rang   = n−1.
 . . . aµ −1,µ 
0 0
Das gilt z.B. für ai,i+1 = 1 für i = 1, . . . , µ − 1 und ai j = 0 für j > i + 1. Damit
erfüllt A die gewünschten Bedingungen.
Matrizen vom Typ wie die obige Matrix spielen eine besondere Rolle bei der
Bestimmung von Jordanschen Normalformen, vgl. Abschnitt 4.6 in [Fi1].
8. Die angegebenen Matrizen
( erfüllen
) offensichtlich die Gleichung A2 = E2 . Sei
a b
andererseits A = ∈ M(2 × 2; K) gegeben. Notwendig für
c d
A2 = E(2 ist )( ) ( 2 ) ( )
a b a b a + bc (a + d)b 1 0
= 2 = ,
c d c d (a + d)c bc + d 0 1
also
a2 + bc = 1 = bc + d 2 , (a + d)b = 0 = (a + d)c .
Nun unterscheiden wir zwei Fälle.
1) Für a + d ̸= 0 folgt b = c = 0, d.h. a2 = 1 = d 2 , und damit wegen a ̸= −d und
char K ̸= 2 gerade A = E2 oder A = −E2 .
2) Ist a + d = 0, so gilt a = −d. Das charakteristische Polynom von A lautet in
4.3 Diagonalisierung 233

diesem Fall
PA (t) = t 2 − a2 − cb
mit den Nullstellen √
t1,2 = ± a2 + cb = ±1 .
Nach Satz 4.3.1, Teil 2) ist(A diagonalisierbar.
) Daraus folgt die Existenz eines
−1 1 0
S ∈ GL(2; K) mit S AS = = D, also gilt SDS−1 = A.
0 −1
9. Es seien λ1 , . . . , λn die Eigenwerte von F, und A = (v1 , . . . , vn ) sei eine Basis
aus den zugehörigen Eigenvektoren. Für vi , v j ∈ A mit i ̸= j ist
vi + v j ̸= 0, daher gibt es ein λ mit F(vi + v j ) = λ (vi + v j ), und es gilt
λi vi + λ j v j = F(vi ) + F(v j ) = F(vi + v j ) = λ (vi + v j ) = λ vi + λ v j .
Da vi und v j linear unabhängig sind, ist die Darstellung eines jeden Vektors in
span (vi , v j ) eindeutig, also folgt λ = λi = λ j . Dies gilt für alle 1 6 i, j 6 n, daher
ist λ der einzige Eigenwert von F.
n
Sei nun 0 ̸= v = ∑ µi vi ∈ V beliebig. Dann gilt
i=1
n n n
F(v) = ∑ µi · F(vi ) = ∑ µi · λ · vi = λ ∑ µ i vi = λ · v ,
i=1 i=1 i=1
d.h. F = λ · id.
10. Da t ein Teiler der Ordnung 1 von PA (t) ist, gilt rang A = 2, d.h. die Spalten
von A sind linear abhängig.
Andererseits ist 0 kein Eigenwert von B, das heißt Ker B = (0) und B hat Rang
3, ist also invertierbar.
Da bei der Multiplikation einer Matrix A mit einer invertierbaren Matrix B der
Rang des Produktes AB gleich dem Rang der Matrix A ist (vgl. Hilfssatz 2.6.6),
folgt
rang AB = rang A = 2 und dim Ker AB = 3 − rang AB = 1 .

Lösung der Ergänzungsaufgabe


E1. a) Die ersten
( ) zehn Folgenglieder
( ) lauten:
( ) ( ) ( )
1 1 2 3 5
v1 = , v2 = , v3 = , v4 = , v5 = ,
( )1 ( 2) ( 3) (5 ) 8( )
8 13 21 34 55
v6 = , v7 = , v8 = , v9 = , v10 = .
13 21 34 55 89
Bei den Einträgen in diesen Vektoren handelt es sich um die sogenannten
F IBONACCI-Zahlen. Wer mehr darüber erfahren möchte, kann z.B. bei [W] Ab-
schnitt 1.2.3, [Enz] S. 108ff., [Fo1] Kapitel 6, Aufgabe 6.7, nachschlagen.
234 4 Eigenwerte

b) Zunächst ist das charakteristische Polynom zu bestimmen. Es gilt


( )
−t 1
PF (t) = det = t 2 − t − 1 = (t − λ1 )(t − λ2 ) ,
1 1−t
√ √
wobei die Eigenwerte λ1 = 1−2 5 und λ2 = 1+2 5 lauten. Nach Satz 4.3.1, Teil 2)
ist F diagonalisierbar.
Die folgenden Beziehungen zwischen λ1 und √ λ2 erleichtern die Rechnung:
λ1 + λ2 = 1 und λ1 · λ2 = −1 als auch λ2 − λ1 = 5. (Bei λ11 = −λ2 handelt es
sich um den sogenannten Goldenen Schnitt, vgl. [A-Z], Kapitel 33.)
Die Eigenvektoren zu den Eigenwerten λi ergeben sich als die Kerne der Ab-
bildungen A − λi E2 für i = 1, 2.
( ) ( )
−λi 1 1
Eig (F, λi ) = Ker = span .
1 1 − λi λi
( ) ( )
1 1
Damit besitzt R2 eine Basis von Eigenvektoren zu F: v1 := , v2 := .
λ1 λ2
( )
1 1
c) Sei T := . Da det T = λ2 − λ1 ̸= 0 ist, lässt sich T invertieren. Es
λ1 λ2
gilt: Tei = vi sowie Avi = λi v1 und T −1 v1 = ei , wobei durch ei die Einheitsvek-
toren bezeichnet sind. Daher gilt
Dei = T −1 ATei = λi ei ,
und wir finden ( )
λ1 0
D= .
0 λ2
d) Zunächst ist ( )
1 λ2 −1
T −1 = .
λ2 − λ1 −λ1 1
Damit folgt
An = (T DT −1 )(T DT −1 ) · . . . · (T DT −1 )
| {z }
n−mal
= T Dn T −1( )
1 λ2 · λ1n − λ1 · λ2n −λ1n + λ2n
=
λ2 − λ1 λ2 · λ1 − λ1 · λ2
n+1 n+1
−λ1 + λ2
n+1 n+1
( n−1 )
~ 1 λ2 − λ1n−1 λ2n − λ1n
= √ ,
5 λ2 − λ1
n n λ2 − λ1
n+1 n+1

wobei an der Stelle ~ die obigen Beziehungen zwischen λ1 und λ2 verwendet


wurden.
4.4 Trigonalisierung∗ 235

( )
Damit erhalten wir vn = An v0 = aan+1
n
, und die F IBONACCI-Zahl an können
wir ohne Rekursionsformel berechnen
[( durch
√ )n ( √ )n ]
1 1+ 5 1− 5
an = √ − .
5 2 2

4.4 Trigonalisierung∗
1. Nehmen wir an, es gibt ein solches P ∈ Q[t]. Dann gibt es ein 1 6 m 6 n − 1
mit
P(t) = α0t m + α1t m−1 + . . . + αm .
In C[t] gibt es eine Zerlegung
n ( √ )
tn − 2 = ∏ t − 2 · ζ j ,
n

j=1
2π i
wobei ζ := e n ·j eine n-te Einheitswurzel ist, und diese Zerlegung ist bis auf
Einheiten eindeutig. Für jedes P mit den gewünschten Voraussetzungen müssen
daher 1 6 j1 < . . . < jm 6 n und α ∈ Q existieren mit
jm ( √ )
P(t) = α ∏ t − 2 · ζ j ,
n

j= j1
woraus m
l = ∑ ji
m
αm = α · (−1)m · 2 n · ζ l mit
i=1
folgt. Da alle nichtkomplexen Einheitswurzeln 1 oder −1 sind, muss für αm ∈ Q
m
notwendig 2 n ∈ Q gelten. Dies ist nun zu widerlegen.
m
Der Beweis√für die Irrationalität von 2 n wird analog zum Beweis der Irra-
m
tionalität von 2 geführt. Nehmen wir also an, es wäre 2 n ∈ Q, dann gibt n
es
m
teilerfremde Zahlen p, q ∈ Z mit 2 = q . Daraus folgt jedoch 2m = qpn , was
n
p

äquivalent zu qn · 2m = pn ist. Da 2 prim ist, ist 2 ein Teiler von p, d.h. es gibt
ein r ∈ Z mit p = 2r. Damit folgt jedoch qn 2m = rn 2n , und wegen n > m folgt
daraus qn = 2n−m rn , d.h. 2 ist ein Teiler von q, weil 2 prim ist. Damit haben p
und q einen gemeinsamen Primteiler, was der Voraussetzung widerspricht.
m
Wir haben gezeigt, dass 2 n für alle m, n ∈ N mit m < n irrational ist, da-
her ist αm für alle m irrational, und t n − 2 kann keinen Teiler P ∈ Q[t] mit
1 6 deg P 6 n−1 besitzen. Ein Polynom wie dieses, das nicht das Produkt zweier
Polynome kleineren Grades ist, heißt irreduzibel.
236 4 Eigenwerte

2. Wir behandeln zuerst die Matrix ( )


3 0 −2
A1 := A = −2 0 1
2 1 0
bzgl. der kanonischen Basis B1 = K . Ihr charakteristisches Polynom lautet
PA (t) = −(t − 1)3
aber dim Eig (A; 1) = 1 < 3 = µ (PA ; 1), daher ist A zwar trigonalisierbar, nicht
jedoch diagonalisierbar.
Im ersten Schritt wählen wir nach der Umformung
( ) ( )
2 0 −2 1 0 −1
A1 − E3 = −2 −1 1 ; 0 1 1
2 1 −1 0 0 0
v1 = t (1, −1, 1), λ1 = 1, j1 = 1. Damit gilt B2 = (v1 , e2 , e3 ) sowie
( ) ( )
1 0 0 1 0 0
S1−1 = −1 1 0 und S1 = 1 1 0 ,
1 0 1 −1 0 1
woraus folgt ( )
1 0 −2
A2 := S1 · A1 · S1−1 = 0 0 −1 .
0 1 2
( )
0 −1
Im zweiten Schritt betrachten wir zunächst die Matrix A′2 = und die
1 2

Basis B2 = (e2 , e3 ). Aus PA′2 (t) = (t − 1) folgern wir λ2 = 1, und mit
2
( ) ( )
−1 −1 1 1
A′2 − E2 = ;
1 1 0 0
bestimmen wir v2 = t (0, 1, −1) sowie j2 = 2, d.h. B3 = (v1 , v2 , e3 ), woraus
( ) ( )
1 0 0 1 0 0
−1
S2 = −1 1 0 und S2 = 1 1 0
1 −1 1 0 1 1
folgt. Damit erhalten wir schließlich
( )
1 2 −2
A3 := S2 · A1 · S2−1 = 0 1 −1 ,
0 0 1
eine obere Dreiecksmatrix.
Für die Matrix ( )
−1 −3 −4
B1 := B = −1 0 3
1 −2 −5
4.4 Trigonalisierung∗ 237

verfahren wir wie im ersten Teil der Aufgabe. Die sich dabei ergebenden Matri-
zen S1 und S2 sind exakt dieselben wie im obigen Beispiel, und die Matrix
( )
−2 1 −4
−1
B3 := S2 · B1 · S2 = 0 −2 −1
0 0 −2
ist eine obere Dreiecksmatrix.
3. Der Induktionsanfang ist schnell behandelt, denn für dimV = 0, 1 gilt
F = 0 für alle nilpotenten Endomorphismen.
Nun kommen wir zum Induktionsschritt. Ist F = 0, so sind wir fertig. An-
dernfalls gilt dim F(V ) < dimV für einen nilpotenten Endomorphismus F, mit
anderen Worten Ker F ̸= 0 und 0 ist Eigenwert. (0 ist sogar einziger Eigenwert,
vgl. Aufgabe 1 zu 4.1.) Sei 0 ̸= v1 ∈ Ker F. Wir ergänzen v1 zu einer Basis
B ′ = (v1 , w2 , . . . , wn ) von V ; es gilt dann
 
0 a12 · · · a1n
 .. 
 . 
MB′ (F) =  . .
 .. B 
0
Da W := span (w2 , . . . , wn ) im Allgemeinen nicht F-invariant ist, definieren wir
wie im Beweis des Trigonalisierungssatzes 4.4.3 die linearen Abbildungen
H(w j ) = a1 j v1 und G(w j ) = a2 j w2 + . . . + an j wn .
Dann gilt F(w) = H(w) + G(w) für alle w ∈ W , und bezüglich der Basis B̃ ′ =
(w2 , . . . , wn ) gilt B = MB̃′ (G). Ferner gilt Im H ⊂ Ker F und G ist nilpotent, denn
wegen der Nilpotenz von F gilt für alle w ∈ W
0 = F k (w) = F k−1 (F(w))
= F k−1 (H(w) + G(w)) (= F k−1)(λ v1 + G(w))
= F k−1 (G(w)) = F k−2 G2 (w) = . . . = Gk (w) .
Wegen dimW = dimV − 1 können wir auf G die Induktionsvoraussetzung an-
wenden, d.h. es gibt eine Basis B̃ = (v2 , . . . , vn ) von W , so dass
 
0 ∗
MB̃ (G) =  ..
. .
0 0
Damit folgt für die Basis B = (v1 , . . . , vn ) von V
 
0 ∗
MB (F) =  ..
.  und PF (t) = (−1)nt n .
0 0
238 4 Eigenwerte

Mit etwas mehr Wissen über Algebra kann der Beweis deutlich gekürzt wer-
den. Im Zerfällungskörper K̃ (siehe [W], Abschnitt 6.2) des charakteristischen
Polynoms PF hat dieses mit Hilfe von Aufgabe 1 zu Abschnitt 4.1 die Form
PF (t) = (−1)nt n , und mit dem Trigonalisierungssatz 4.3.3 folgt die Behauptung.
4. Wegen µ = ω gilt
( )
0 1
A1 := A = .
−µ 2 −2µ
Weil PA (t) = (t + µ )2 in Linearfaktoren zerfällt, ist A nach 4.4.3 trigonalisierbar.
Dass A nicht diagonalisierbar ist, wurde bereits in 4.3.5 gezeigt.
v1 = (1, −µ ) ist Eigenvektor zum Eigenwert λ1 = −µ , und mit j1 = 1 bestimmen
wir B2 = (v1 , e2 ), womit
( ) ( )
1 0 1 0
S−1 = und S =
−µ 1 µ 1
und damit ( )
−µ 1
B := S · A · S−1 =
0 −µ
folgt.
Mit der Substitution z := Sy geht das System ẏ = Ay über in
B · z = SAS−1 · Sy = SAy = Sẏ = ż .
Aus der zweiten der beiden Gleichungen
ż0 = −µ z0 + z1 und ż1 = 0z0 − µ z1
folgt zunächst z1 = a · e− µ t mit a ∈ R. Im Fall a = 0 ist ż0 = −µ z0 , eine
von 0 verschiedene Lösung dieser Gleichung ist gegeben durch z0 = b · e−µ t mit
b ∈ R r 0. Für z1 = e−µ t , d.h. a = 1, gilt ż0 = −µ z0 + e−µ t . Mit Hilfe der Me-
thode der Variation der Konstanten (siehe [Fo2], §11) folgt daraus z0 = t · e−µ t .
Insgesamt erhalten wir die beiden linear unabhängigen Lösungen t (e−µ t , 0) und
t (t · e−µ t , e−µ t ), die ein Fundamentalsystem bilden. Aus diesen beiden Lösungen

des Systems ż = Bz erhalten wir durch die Transformation mit S−1 Lösungen des
Systems ẏ = Ay, denn aus z = Sy folgt S−1 z = y. Damit folgt
( −µ t ) ( )
e 1
S−1 = e− µ t
0 −µ
und ( ) ( )
t · e− µ t t
S−1 − µ = e−µ t , (∗)
e t −µ t + 1
4.5 Potenzen eines Endomorphismus∗ 239

daher ist die allgemeine Lösung der Differentialgleichung ÿ + 2µ ẏ + µ 2 y = 0 ge-


geben durch φ (t) = α1 e−µ t + α2te−µ t . Für die Anfangsbedingungen
φ (0) = α , φ̇ (0) = β lesen wir aus (∗) ab:
α1 = α und α2 = β + α µ ,
also φ (t) = α · e−µ t + (β + α µ )t · e−µ t .
Man beachte, dass mit Hilfe der Methode aus Aufgabe 4 zu Abschnitt 4.3 nur
die Lösung y0 = e−µ t gewonnen werden kann. Dies liegt daran, dass in Aufgabe
3 aus Abschnitt 4.1 der Ansatz eλ t v für die Lösung gemacht wurde, nicht etwa
f (t) · eλ t . Zur allgemeinen Theorie solcher Systeme von Differentialgleichungen
mit konstanten Koeffizienten vgl. [Fo2], §13.

4.5 Potenzen eines Endomorphismus∗


1. Ist λ ein Eigenwert von F, so existiert ein 0 ̸= v ∈ V mit F(v) = λ v. Für ein
P(t) = αr t r + . . . + α1t + α0 ∈ K[t] gilt
P(F)(v) = αr F r (v) + . . . + α1 F(v) + α0 idV (v)
= αr λ r v + . . . + α1 λ v + α0 v = P(λ ) · v .

2. Seien P(t) := αr t r + . . . + α0 und Q(t) := βst s + . . . + β0 . Dann gilt aufgrund


der Linearität von F für alle v ∈ V
P(F) ◦ Q(F)(v) = P(F) (βs F s (v) + . . . + β1 F(v) + β0 idV (v))
= αr F r (βs F s (v) + . . . + β1 F(v) + β0 v) + . . .
+ α(
0 (βs F (v) + . .)
s
. + β1 F(v) + β0 v)
r+s
= ∑ ∑ αi β j F k (v) = (P · Q)(v) .
k=0 i+ j=k
Aus der Kommutativität von K[t] folgt der Rest.
3. a) ΦF ist ein Gruppenhomomorphismus, denn es gilt mit den Bezeichnungen
aus der Lösung von Aufgabe 2
ΦF (P + Q) = (P + Q)(F)
= αr F r + . . . + α0 + βs F s + . . . + β0
= P(F) + Q(F) .
Dass ΦF ein Ringhomomorphismus ist, folgt aus Aufgabe 2. Die K-Linearität
folgt schließlich aus
λ ΦF (P) = λ (P(F)) = λ (αr F r + . . . + α0 )
= λ αr F r + . . . + λ α0 = ΦF (λ P) .
b) Die Kommutativität folgt aus Aufgabe 2, der Rest aus Teil a).
240 4 Eigenwerte

c) Für dimV = n gilt dim End (V ) = n2 . Daher sind die Endomorphismen


2
idV , F, F 2 , . . . , F n linear abhängig in End (V ), d.h. es existieren
γ0 , . . . , γn2 ∈ K, die nicht alle 0 sind, mit
2
γn2 F n + . . . + γ1 F + γ0 = 0 ∈ End (V ) .
Sei r := max{i : 0 6 i 6 n2 und γi ̸= 0}. Es gilt γri F ri + . . . + γ0 = 0, also
F ri + . . . + γγr0 = 0. Das Polynom P := t ri + . . . + γγr1 t + γγr0 hat die gewünschten
i i i
Eigenschaften.
Nach der Definition aus Aufgabe 7 zu 6.3 sind K[t] und End (V ) sogar
K-Algebren, und Teil a) besagt gerade, dass ΦF ein K-Algebra-Homomorphis-
mus, also gleichzeitig ein Homomorphismus von K-Vektorräumen und Ringen,
der Einselemente aufeinander abbildet (vgl. [P], Section 1.1), ist. Weiter ist in
dieser Schreibweise K[F] eine Unteralgebra von K[t].
4. Diese Aufgabe ist durch einfache Rechnung zu lösen.
5. F ∈ End (V ) sei diagonalisierbar, d.h. es existiert eine Basis von V mit
 
λ1 0
MB (F) =  ..
.  =: A .
0 λn
Dann lautet das charakteristische Polynom
PA (t) = (λ1 − t) · . . . · (λn − t)
und somit
PA (A) = (λ1 En − A) · . . . · (λn En − A).
Es ist zu zeigen, dass PA (t) die Nullmatrix ist. Die i-te Faktormatrix λi En − A hat
die Form  
λi − λ1
 . .. 
 
 λ − λ 
 i i−1 
λi En − A = 
 0 ,

 λ − λ 
 i i+1 
 ..
. 
0 λi − λn
enthält also in der i-ten Zeile nur Nullen. Ein Produkt von n Matrizen, für die
ai j = 0 für alle i ̸= j gilt und unter denen für alle i = 1, . . . , n eine Matrix mit
aii = 0 existiert, kann nach den Regeln der Matrizenmultiplikation nur die Null-
matrix sein.
4.5 Potenzen eines Endomorphismus∗ 241

6. a) Es sei w ∈ W , d.h. w = λ0 v + λ1 F(v) + . . . + λk−1 F k−1 (v). Dann gilt


F(w) = λ0 F(v) + λ1 F 2 (v) + . . . + λk−2 F k−1 (v) + λk−1 F k (v).
Da k maximal gewählt ist, gilt F k (v) ∈ span (v, . . . , F k−1 (v)). Damit existieren
α0 , . . . , αk−1 ∈ K mit
F k (v) = −α0 v − α1 F(v) − . . . − αk−1 F k−1 (v). ~
Hiermit folgt
F(w) = −λk−1 α0 v + (λ0 − λk−1 α1 )F(v) + . . . + (λk−2 − λk−1 αk−1 )F k−1 (v) ∈ W.
Da w ∈ W beliebig ist, gilt F(W ) ⊂ W . Damit ist W jedoch F-invariant.
Nach ~ gilt
α0 v + α1 F(v) + . . . + αk−1 F k−1 (v) + F k (v) = 0.
Dies lässt sich für W durchdie Matrix 
0 ··· ··· 0 −α0
 1 0 ··· 0 −α1 
 
 .. 
A= 0 1 0 . 
 .. .. 
 . . 
0 1 −αk−1
dargestellt, und nach Aufgabe 4 in Abschnitt 4.2 folgt damit für G := F|W
PG (t))(−1)k (t k + αk−1t k−1 + . . . + α1t + α0 ).
( )
b) Zu zeigen ist PG (G) F i (v) = 0 für i = 0, . . . , k − 1, denn damit gilt
PG (G)(W ) = 0.
Es gilt
( ) ( ( ) ( )
FG (G) F i (v) = (−1)k F k F i (v) + αk−1 F k−1 F i (v) + . . .
( i ) )
+α1 F F (v) + α0 F i (v)
( )
= F i (−1)k (F k (v) + αk−1 F k−1 (v) + . . . + α0 v)
= F i (0) = 0
für alle i = 0, . . . , k − 1. Hieraus folgt PG (G)(W ) ≡ 0.
c) Der Induktionsanfang für n = 0 ist klar.
Mit den Bezeichnungen aus Teil a) und b) ist W ein Untervektorraum von V .
Es sei W̃ ein Untervektorraum von V , so dass V = W ⊕ W̃ gilt. Ist
B̃ = (wk+1 , . . . , wn ) eine Basis von W̃ , so ist
B = (v, F(v), . . . , F k−1 (v), wk+1 , . . . , wn )
eine Basis von V . Bezüglich dieser Basis gilt
( )
A ∗
M := MB (F) = .
0 B
242 4 Eigenwerte

Nach der Bemerkung 4.4.1 gilt (wobei D9 verwendet wird)


PM (M) = PA (M) · PB (M).
Es sei π : V → W̃ die kanonische Projektion. Dann gilt
PF (F) = PF|W (F) · Pπ ◦F|W̃ (F).
Nach der Induktionsvoraussetzung gilt PB (B) = 0, woraus Pπ ◦F|W̃ (F)(w) = 0 für
alle w ∈ W̃ , d.h. Pπ ◦F|W̃ (F) ≡ 0 folgt. In Teil a) wurde PA (A) = 0 gezeigt, woraus
PF|W (F)(w) = 0 für alle w ∈ W , d.h PF|W (F) ≡ 0 folgt. Hiermit gilt PF (F) ≡ 0.
7. Es ist PF (t) = ±(t − λ1s1 · . . . · (t − λr )sr mit s1 + . . . + sr = n = dimV . Sei
nun M := (t − λ1 ) · . . . · (t − λr ). Zu zeigen ist M = MF . Nach Beispiel 4.5.1 gilt
M(F) = 0, d.h. M ∈ IF . Da nach Satz 4.5.6 PF ein Teiler von MFn ist, muss MFn
jedes (t − λi ) als Teiler enthalten (da diese Elemente irreduzibel sind), woraus
(t − λi )|MF für alle i folgt. Damit ist M ein Teiler von MF und deg M 6 deg MF .
Aus der Minimalität von MF folgt dann deg M = deg MF , und da M und MF
normiert sind, folgt M = MF .

4.6 Die Jordansche Normalform∗


1. i) Für  
1 4 2 1
 0 1 2 −1 
A := 
0 0 1 −3 
0 0 0 −1
ist
PA (t) = (t − 1)3 (t + 1) .
Wegen Hau (A; λ ) = Ker (A − λ E4 )µ (PA ;λ ) (vgl. 4.6.1) gilt
( )
Hau (A; −1) = Eig (A; −1) = span t (0, −2, 3, 2)
sowie Hau (A; 1) = Ker (A − E4 )3 . Eine Rechnung ergibt
 
0 0 0 0
 0 0 0 8 
(A − E4 )3 = 
0 0 0 −12 
,
0 0 0 −8
also Hau (A; 1) = span (t (1, 0, 0, 0), t (0, 1, 0, 0), t (0, 0, 1, 0)).
Für die Berechnung der Jordanschen Normalform ist eine andere Wahl der
Hauptraumvektoren nötig, z.B. die folgende:
{ ( ) ( ) ( )}
Hau (A; 1) = span t 1, 0, 0, 0 , t 0, 14 , 0, 0 , t 0, − 16
1 1
, 8,0 .
4.6 Die Jordansche Normalform∗ 243

Dann ist    
1 0 0 0 1 0 0 0
 0 1
− 16
1
−2   0 4 2 1 
T =
 0
4  und T −1 =  ,
0 1
8 3   0 0 8 −12 
1
0 0 0 2 0 0 0 2
was  
1 1 0 0
 0 1 1 0 
−1  
T AT =  
 0 0 1 0 
0 0 0 −1
liefert.
ii) Die Matrix  
2 3 3 1 8
 2 7 2 8 
 
 2 5 4  =: B
 −1 −4 
−1
hat (wegen ihrer Dreiecksform leicht einsehbar) das charakteristische Polynom
PB (t) = −(t − 2)3 (t + 1)2 ;
sie hat daher die Eigenwerte 2 und −1. Wir berechnen den Kern der Matrix
   
0 3 3 1 8 0 0 0 0 0
 0 7 2 8   1 0 0 0 
   
B − 2E5 =  0 5 4 ; 1 0 0 ,
 −3 −4   1 0 
−3 1
der von t (1, 0, 0, 0, 0) aufgespannt wird. Da der Eigenwert 2 jedoch die Viel-
fachheit 3 hatte, was man am charakteristischen Polynom ablesen kann, müssen
wir noch zwei Hauptraumvektoren zum Eigenwert 2 bestimmmen. Dafür gibt es
verschiedene Rechenmöglichkeiten. Wir bestimmen eine Lösung des LGS
(B − 2E5 ) · x = t (1, 0, 0, 0, 0) ,
( )
also zum Beispiel x = t 0, 13 , 0, 0, 0 , als ersten Hauptraumvektor. Dieses Vor-
gehen ist korrekt, weil damit B · x = 2 · x + 1 · t (1, 0, 0, 0, 0) gilt, was wunsch-
gemä gerade den Einträgen in einer Spalte der späteren Jordanschen Normalform
entspricht. Den zweiten Hauptraumvektor errechnen wir genauso als Lösung des
LGS ( )
(B − 2E5 ) · y = t 0, 31 , 0, 0, 0 ,
eine Möglichkeit ist y = t (0, − 21
1 1
, 21 , 0, 0).
244 4 Eigenwerte

Mit dem Eigenwert −1 verfahren wir ganz genauso. Als Basis des Kerns der
Matrix    
3 3 3 1 8 3 3 3 1 0
 3 7 2 8   3 7 2 0 
   
B + E5 =  3 5 4 ; 3 5 0 
 0 −4   0 1 
0 0
ergibt sich der Eigenvektor t (17, −29, 15, −9, 0). Der zugehörige Hauptraum-
vektor ist eine Lösung des LGS
(B + E5 ) · z = t (17, −29, 15, −9, 0) .
( )
z = 18, − 3 , 2, 0, 4 ist eine mögliche Lösung.
t 61 9

Damit sind die Haupträume vollständig bestimmt. Auerdem liefern diese


Rechnungen die Transformationsmatrix T , in deren Spalten die Eigen- und
Hauptraumvektoren stehen:  
1 0 0 17 18
 61 
3 − 21 −29 − 3 
1 1

T =
1
21 15 2 .
 −9 0 
9
4
Es gilt  
1 0 0 17
9 −8
 3 3 −314 220 
 
−1  9

T = 21 35 − 56 ,
 3 
 − 19 0 
4
9
und als Probe bestätigen wir dieJordansche Normalform
2 1 0 0 0
 0 2 1 0 
 0 
−1  
T BT =  0 0 2 0 0 .
 
 0 0 0 −1 1 
0 0 0 0 −1

2. Wir wählen die Bezeichnungen wie in Beispiel 4.6.8 und stellen ein weiteres
Verfahren zu dem aus Aufgabe 1 zur Ermittlung der Transformationsmatrix und
der Jordanschen Normalform vor.
i) Für die Matrix ( )
0 2 2
A := 0 0 2 ist PA (t) = −t 3 .
0 0 0
4.6 Die Jordansche Normalform∗ 245

Einziger Eigenwert von A ist somit 0, was nach Aufgabe 1 zu Abschnitt 4.1 nicht
verwunderlich ist. Wir berechnen
( zunächst )die Potenzen von A:
0 0 4
A = 0 0 0 , A3 = (0) .
2
0 0 0
Daraus bestimmen wir
( )
U1 := Ker A = span t (1, 0, 0) ,
( )
U2 := Ker A2 = span t (1, 0, 0), t (0, 1, 0) .
Aus den Zerlegungen
R3 = U2 ⊕W3 = U1 ⊕W2 ⊕W3 = U0 ⊕W1 ⊕W2 ⊕W3
bestimmen wir dimW3 = dimW2 = dimW1 , d.h. s3 = 1, s2 = s1 = 0, was auch
wegen dim R3 = 3 = min{d ∈ N : Ad = 0} klar ist. Daher sind die Basisvektoren,
bzgl. derer die Abbildung A Jordansche Normalform hat, gegeben durch die drei
Vektoren ( ) ( )
2 4
e3 ∈ W3 , A · e3 = 2 ∈ W2 , A · e3 = 0 ∈ W1 .
2
0 0
Zur Probe bestimmen
( wir ) ( )
4 2 0 1 −1 0
T −1 = 0 2 0 und damit T= 1
4
0 2 0 ,
0 0 1 0 0 4
womit folgt ( )
0 1 0
TAT −1 = 0 0 1 ,
0 0 0
wie es sein muss.
Schließlich ist das Minimalpolynom nach dem Lemma von Fitting 4.6.2 ge-
geben durch MA (t) = t 3 .
ii) Wir betrachten die Matrix
 
1 −2 0 −1 2
 1 −3 −1 0 3 
 
B :=  0 2 1 −1 −3 
 1 0 0 −1 −2 
0 −1 0 0 2
zunächst als Endomorphismus des C5 . Das charakteristische Polynom zerfällt
in Linearfaktoren, es gibt also mit Vielfachheit gezählt genau fünf Eigenwerte.
Da jedoch B nilpotent ist, ist 0 der einzige Eigenwert von B, und daraus folgt
PB (t) = −t 5 ∈ C[t]. Alle Nullstellen sind reell, also gilt PB (t) = −t 5 auch für den
246 4 Eigenwerte

Endomorphismus B : R5 → R5 . Wir können uns daher die aufwändige Rechnung


zur Bestimmung von PB (t) sparen.
Wir berechnen zunächst
 
−2 2 2 0 2
 −2 2 2 0 2 
 
B2 =  1 −1 −1 0 −1  und B3 = 0 .
 0 0 0 0 0 
−1 1 1 0 1
Das Minimalpolynom von B lautet dann MB (t) = t 3 . Aus rang B = 3 lesen wir
dimU1 = 2 ab, aus rang B2 = 1 folgt dimU2 = 4, und dimU3 = 5 ist ohnehin klar.
Anhand von R5 = U2 ⊕W3 bestimmen wir zunächst s3 = 1, und anhand der Ma-
trix B2 sehen wir, dass e5 eine mögliche Basis für W3 ist. Aus R5 = U1 ⊕W2 ⊕W3
folgt s2 = 1, was man auch mit Hilfe der Formel s2 = dimU2 − dimU1 − dimW3 =
1 aus 4.6.5 bestimmen kann. Der Vektor B · e5 = t (2, 3, −3, −2, 2) ist in jedem
Falle in einer Basis von W2 vertreten. Er kann sinnvoll durch e4 zu einer Basis von
W2 ergänzt werden. Nun folgt aus R5 = U0 ⊕W1 ⊕W2 ⊕W3 gerade dimW1 = 2, al-
so s1 = 0, was ebenfalls mit der Formel aus 4.6.5 berechnet werden kann. Daher
ist durch die Vektoren B2 e5 = t (2, 2, −1, 0, 1) und Be4 = t (−1, 0, −1, −1, 0) die
geeignete Basis von W1 gegeben. Ordnen wir die Basisvektoren wie im Beweis
von Theorem 4.6.5 an, so ergibt sich folgendes Schema:
e5 ,
t (2, 3, −3, −2, 2) , e ,
4
t (2, 2, −1, 0, 1) , t (−1, 0, −1, −1, 0) .

Eine Basis, bezüglich der B Jordansche Normalform hat, ist durch diese fünf
Vektoren gegeben. Wir wollen dies noch einmal explizit überprüfen. Es ist
   
2 2 0 −1 0 −3 5 3 0 0
 2 3 0 0 0   2 −3 −2 0 0 
   
T −1 =  −1 −3 0 −1 0  ⇒ T =  −1 1 1 0 1 ,
 0 −2 0 −1 1   −3 4 2 0 0 
1 2 1 0 0 1 −2 −2 1 0
woraus folgt
  
0 1 0 0 0 

 
 0 0 1 0 0  d = 3
−1   
T BT = 0 0 0 0 0 
  }
 0 0 0 0 1 
d −1 = 2.
0 0 0 0 0
Die Linien begrenzen dabei die Jordan-Blöcke, d = min{l : Gk = 0}. Mit den
4.6 Die Jordansche Normalform∗ 247

Bezeichnungen aus Theorem 4.6.5 ist also


5 = dimV = 3 · s3 + 2 · s2 + 1 · s1 = 3 · 1 + 2 · 1 + 1 · 0 .

3. Wir haben bereits in den Lösungen zu Aufgaben 1 und 2 dieses Abschnitts


zwei verschiedene Möglichkeiten kennengelernt, eine Transformationsmatrix
zur Jordanschen Normalform zu bestimmen. Welche Methode man vorzieht,
bleibt jedem/jeder selbst überlassen; wir wollen uns jedoch stets auf die Vorfüh-
rung einer Rechnung beschränken.
Die Matrix ( )
3 4 3
A = −1 0 −1
1 2 3
hat das charakteristische Polynom PA (t) = −(t − 2)3 . Als eine Basis des Kerns
der Matrix ( ) ( )
1 4 3 1 0 −1
A − 2E3 = −1 −2 −1 ; 0 1 1
1 2 1 0 0 0
ermitteln wir den Eigenvektor v = t (1, −1, 1). Damit ist jetzt schon klar, dass
die Jordanform von A nur aus einem Jordanblock der Länge 3 besteht. In dieser
Aufgabe ist jedoch auch eine Basis gefragt, bezüglich der A Jordanform hat, und
das Minimalpolynom soll bestimmt werden. Dieses lautet MA (t) = (t − 2)3 , weil
(A − 2E3 )2 ̸= 0 ist, siehe Satz 4.5.5.
Der Vektor x = t (1, 0, 0) ist eine Lösung des linearen Gleichungssystems
(A − 2E3 ) · x = t (1, −1,( 1) und wird
) somit unser erster Hauptraumvektor. Analog
bestimmen wir y = t −1, 21 , 0 als Lösung von (A − 2E3 ) · y = t (1, 0, 0). Die
gesuchte Basis lautet B = (v, x, y), d.h. die Matrix T −1 , die aus den Spaltenvek-
toren v, x, y zusammengesetzt wird, lautet
 
1 1 −1
T −1 =  −1 0 1 
2
1 0 0
mit inverser Matrix ( )
0 0 1
T= 1 2 1 .
0 2 2
Zur Probe rechnen wir ( )
2 1 0
TAT −1 = 2 1
2
nach: alles in Ordnung.
248 4 Eigenwerte

Mit der zweiten Matrix  


2 1 1 0 −2
 1 1 1 0 −1 
 
B= 1 0 2 0 −1 
 1 0 1 2 −2 
1 0 1 0 0
gehen wir genauso vor. Da sich hier jedoch einige kleine Besonderheiten erge-
ben, dokumentieren wir unser Vorgehen ausführlich. Das charakteristische Poly-
nom lautet
PB (t) = −(t − 2)2 (t − 1)3 .
Es gilt
   
0 1 1 0 −2 1 0 0 0 −1
 1 −1 1 0 −1   1 0 0 −1 
   
B − 2E5 =  1 0 0 0 −1 ; 1 0 −1  .
 1 0 1 0 −2   0 0 
1 0 1 0 −2 0
Diese Matrix hat Rang 3, ihr Kern ist also zweidimensional. Eine Basis des Kerns
besteht aus den beiden Eigenvektoren
v1 = t (0, 0, 0, 1, 0) und v2 = t (1, 1, 1, 0, 1) .
Damit ist der Teil der Jordanmatrix, der zum Eigenwert 2 gehört, diagonalisier-
bar, weil es genauso viele linear unabhängige Eigenvektoren zu 2 gibt, wie die
Vielfachheit der Nullstelle 2 im charakteristischen Polynom beträgt. Wir brau-
chen uns auch um keine Hauptraumvektoren mehr zu kümmern.
Beim Eigenwert 1 wird es etwas komplizierter. Wir berechnen
   
1 1 1 0 −2 1 0 1 0 −1
 1 0 1 0 −1   1 0 0 −1 
   
B − E5 =  1 0 1 0 −1  ;  0 1 −1  ;
 1 0 1 1 −2   0 0 
1 0 1 0 −1 0
das liefert die Eigenvektoren w1 = t (0, 1, 1, 1, 1) und w2 = t (1, 1, 0, 1, 1). Nun
müssen wir einen Vektor bestimmen, der durch (B − E5 ) in den durch w1 und w2
aufgespannten Unterraum abgebildet wird, das entspricht einer Lösung des LGS
(B − E5 ) · x = a · w1 + b · w2 ,
wobei a, b ∈ R beliebig sind. Eine Möglichkeit ist
(B − E5 ) · t (1, −1, 0, 0, 0) = 1 · w1 + 0 · w2 .
Damit lautet die gesuchte Basis (v1 , v2 , w1 , x, w2 ), wobei x = t (1, −1, 0, 0, 0) ist.
4.6 Die Jordansche Normalform∗ 249

Es ist    
0 1 0 1 1 1 1 1 1 −3
 0 1 1 −1 1   1 1 1 0 −2 
   
S−1 =  0 1 1 0 0  , also S =  −1 −1 0 0 2 
 1 0 1 0 1   0 −1 0 0 1 
0 1 1 0 1 0 0 −1 0 1
sowie  
2
 
 2 
 
SBS−1 =  1 1 .
 
 0 1 
1
Das Minimalpolynom von B lautet MB (t) = (t − 2)(t − 1)2 . Man kann an ihm die
Länge der gröten Jordanblöcke zum jeweiligen Eigenwert ablesen, siehe auch
Aufgabe 8 zu diesem Abschnitt.
4. a) Wir zeigen die Behauptung durch Induktion über m. Für m = 2 ist
(SAS−1 )2 = SAS−1 · SAS−1 = SA2 S−1 . Den Induktionsschritt beweisen wir mit
(∗)
(SAS−1 )m = (SAS−1 )(SAS−1 )m−1 = (SAS−1 )(SAm−1 S−1 ) = SAm S−1 ,
wobei bei (∗) die Induktionsannahme benutzt wurde.
b) Den Beweis kann man einerseits wie den Beweis des binomischen Lehrsatzes
(vgl. [Fo1], §1) durch Induktion über m führen, da dort lediglich die Kommuta-
tivität in R sowie x + y ∈ R und x · y ∈ R für x, y ∈ R ausgenutzt werden. Daher
gilt der binomische Lehrsatz in jedem kommutativen Ring mit Eins.
Auf dieser Grundlage geben wir einen Beweis an. Sind zwei Matrizen
A, B ∈ R := M(n × n; K) mit AB = BA gegeben, so betrachten wir den von A
und B in R erzeugten Unterring (Achtung: Nicht das von A und B erzeugte Ide-
al!). Dieser ist wegen AB = BA kommutativ, also gilt der binomische Lehrsatz,
woraus die Behauptung folgt.
c) Für die Matrix A ist PA (t) = −(t − 2)3 , wie man nach einer kurzen Rechnung
herausfindet. Wegen
dim Eig (A; 2) = 1 < 3 = µ (PA ; 2)
ist A nicht diagonalisierbar, aber trigonalisierbar. Die Matrix N := A − 2E3 ist
nilpotent mit N 3 = 0, also gilt Hau (A; 2) = Ker N 3 = R3 . Wir können daher
A = E3 (D + N)E3 wählen mit
( ) ( )
2 0 0 1 4 3
D := 0 2 0 und N := −1 −2 −1 .
0 0 2 1 2 1
Man bestimmt leicht DN = 2N = ND.
250 4 Eigenwerte

Für die Berechnung von A50 ist es vorteilhaft, dass S = E3 gilt. Zunächst er-
halten wir 50 ( )
50
A50 = (D + N)50 = ∑ Dk N 50−k .
k=0 k
Da N nilpotent ist mit l = 0 für alle l > 3, bleiben nur drei Summanden stehen:
(N ) ( ) ( )
50 50 50
A50 = D48 N 2 + D49 N + D50 N 0 .
48 49 50
Benutzen wir ferner N 0 = E3 sowie Dl = 2l · E3 , so erhalten wir
( ) ( )
0 2 2 1 4 3
A50
= 2 ·2
49·50 48
0 −2 −2 + 50 · 2 49
−1 −2 −1 + 250 E3
0 2 2 1 2 1
( )
52 1425 1375
= 2 49
−50 −1323 −1275 .
50 1325 1277
5. a) Wie wir bereits für die Lösung zu Aufgabe 4c) benutzt haben, gilt für eine
Diagonalmatrix D für alle k ∈ N  
 
λ1 0 λ1k 0
D= ..
.  ⇒ Dk = 
 ..
.

.
0 λn 0 λnk

Hieraus folgtdirekt 
m
lim ∑ k!1 λ1k 0  
 m→∞ k=0  eλ1 0
 
exp(D) =  ... = .. 
   . .
 m  0 e λn
0 lim ∑ λ
1 k
m→∞ k=0 k! n

b) Nach Aufgabe 4a) gilt für alle k ∈ N gerade (SAS−1 )k = SAk S−1 . Damit folgt
m m
1 1
exp(SAS−1 ) = lim ∑ (SAS−1 )k = lim ∑ SAk S−1
m→∞ k! m→∞ k!
( k=0 ) k=0
m
1 k −1
= S lim ∑ A S = S · exp(A) · S−1 .
k=0 k!
m→∞

c) Wir betrachten die Folge (Cm ) ⊂ M(n


(× n; R) von
) (Matrizen)
mit
2m m m
1 1 k 1 k
Cm := ∑ (A + B) − ∑ Ak
∑ B .
k=0 k! k=0 k! k=0 k!
Wenn wir zeigen können, dass limm→∞ Cm = (0) gilt (wobei (0) ∈ M(n × n; R)
die Nullmatrix bezeichnet), sind wir fertig. Hierzu genügt es zu zeigen, dass
4.6 Die Jordansche Normalform∗ 251

alle Einträge von Cm für große m beliebig klein werden. Wir zeigen dies durch
geschickte Abschätzung der Einträge von Cm . Aus Aufgabe 4b) folgt
2m l m m
Cm = ∑ ∑ k!(l−k)!
1
Ak Bl−k − ∑ ∑ k!l!
1 k l
AB = ∑ 1 k1 l
k! A l! B .
l=0 k=0 k=0 l=0 k+l62m
k>m oder l>m

Nun bezeichne für A = (ai j ) und B = (bi j )


c := max{|ai j |, |bi j |} .
Wir behaupten: Die Einträge aus Am und Bm sind durch (nc)m beschränkt. (∗)
1 k l
Ist dies gezeigt, so sind die Komponenten von k!l! A B beschränkt durch
n k+l 2
k!l! (nc) . Die Summe C m enthält höchstens m Summanden, daher ist jeder
Eintrag von Cm beschränkt durch
m2 n m2 n 2m
(nc)k+l 6 ϑ mit ϑ := max{1, nc} ,
k!l! m!
da k > m oder l > m sowie k + l 6 2m gilt. Schließlich folgt aus
2 ·ϑ 2m
limm→∞ m m! = 0, dass alle Komponenten von Cm für m → ∞ beliebig klein
werden, d.h. limm→∞ Cm = (0).
Es bleibt der Beweis von (∗). Dazu wählen wir für die Matrizen A = (ai j ) und
(m) (m)
Am = (ai j ) die Bezeichnungen a := max{|ai j |} und a(m) := max{|ai j |}. Aus
n
∑ aik
(m) (m−1)
ai j = ak j
k=1

folgt a(m) 6 (n · a) · a(m−1) , und per Induktion erhalten wir a(m) 6 (n · a)m . Da
eine analoge Aussage für B gilt, folgt die Behauptung.
Die Abbildung exp : M(n × n; K) → GL (n, K) wird in der Theorie der Lie-
Algebren und Lie-Gruppen weiter verallgemeinert, vgl. [F-H], §8.3.
d) Aus PA (t) = −(t − 1)3 bestimmen wir zunächst
dim Eig (A; 1) = 1 < 3 = µ (PA ; 1) ,
also ist A zwar trigonalisierbar, nicht aber diagonalisierbar. Der Satz über die
Hauptraumzerlegung 4.6.1 ergibt ohne weitere Rechnung
dim Hau (A; 1) = dim Ker (A − E3 )3 = R3 .
Setzen wir ( )
2 0 −2
N := A − E3 = −2 −1 1 ,
2 1 −1
so erhalten wir eine Zerlegung A = E3 + N, wobei N nilpotent und E3 Diagonal-
matrix ist. Also können wir D = S = E3 wählen, was die weiteren Berechnungen
252 4 Eigenwerte

sehr übersichtlich macht. Die Bedingung DN = ND ist sofort klar, und unter
Berücksichtigung der Teile a) und c) folgt aufgrund von N 3 = 0
exp(A) = exp(D + N) = exp(D) · exp(N) = e · exp(N)
( )
( 1 0 1 1 1 2) 3 −1 −3
= e 0! N + 1! N + 2! N = e −2 1 2 .
2 0 −1
6. Nach 4.6.5 gilt sl = dimUl − dimUl−1 − dimWl+1 . Da Ul−1 ⊂ Ul ein Untervek-
torraum ist, können wir Satz 2.2.7 anwenden, woraus
dimUl − dimUl−1 = dim (Ul /Ul−1 )
folgt. Nach Konstruktion im Beweis von Theorem 4.6.5 gilt
Ul+1 = Ul ⊕Wl+1 , also dimUl+1 = dimUl + dimWl+1
bzw. nach Umformung dimWl+1 = dimUl+1 − dimUl . Aus Ul ⊂ Ul+1 folgt mit
erneuter Anwendung von Satz 2.2.7 dimWl+1 = dim (Ul+1 /Ul ). Insgesamt gilt
daher
sl = dimUl − dimUl−1 − dimWl+1 = dim (Ul /Ul−1 ) − dim (Ul+1 /Ul ) .
7. Teil a) ergibt sich durch simple Rechnung, vgl. auch Aufgabe 4 zu 2.6.
b) Nach Definition 2.6.7 heißen zwei Matrizen A, B ∈ M(n × n; K) ähnlich, wenn
ein S ∈ GL (n; K) existiert mit B = SAS−1 . Bezüglich einer beliebigen Basis B
betrachten wir das kommutative Diagramm
MB (F) - n
Kn K
@ Φ B ΦB
@
R
V - V
F
S = MB (H) H H MB (H) = S
? ?
G-
V V
? I ?
@
Φ B Φ B-@ n
Kn K
MB (G)
Aus diesem lesen wir sofort ab, dass die Existenz eines Isomorphismus H mit
G = H ◦ F ◦ H −1 gleichbedeutend zur Existenz einer Matrix
S = MB (H) ∈ GL (n; K) mit MB (G) = S · MB (F) · S−1
ist. Das zeigt die Äquivalenz von i) und ii).
ii) ⇒ iii): Sei B eine Basis, bezüglich der MB (G) Jordansche Normalform
hat. Nach ii) existiert ein S ∈ GL (n; K) mit MB (G) = S · MB (F) · S−1 . Sei A die
Basis, die von den Spalten von S−1 gebildet wird. Dann gilt MB (G) = MA (F),
und F und G haben dieselbe Jordansche Normalform.
4.6 Die Jordansche Normalform∗ 253

iii) ⇒ i): Einer anderen Anordnung der Jordanblöcke längs der Diagonale ent-
spricht eine Permutation der Basis. Also sind die zugehörigen Endomorphismen
ähnlich.
8. Ist Vi := Hau (F; λi ) und Gi := (F − λi idV )|Vi , so ist nach dem Lemma von
Fitting 4.6.2 MGi = t di , d.h. nach Definition von Gi gilt MF|V = (t − λi )di . Wegen
i
V = V1 ⊕ . . . ⊕Vk folgt daraus jedoch sofort
MF = MF|V · . . . · MF|V = (t − λ1 ) · . . . · (t − λk )dk .
d1
1 k

9. Aufgrund der Form des charakteristischen Polynoms stehen in der Diagonalen


der Jordan-Matrix von F einmal die 1 und fünfmal die −2. Aus den Exponenten
des Minimalpolynoms liest man ab, dass der größte Jordanblock zum Eigenwert
1 ein (1 × 1)-Block ist, der größte Jordanblock zum Eigenwert −2 ist ein (3 × 3)-
Block. Daher gibt es zwei Möglichkeiten für die Jordansche Normalform von F:
   
1 1
 −2 1   −2 1 
 0   0 
   
 −2 1   −2 1 
  und  ,
 −2   −2 
   
 −2   −2 1 
−2 −2
wobei die Jordan-Böcke eingerahmt und die nicht angegebenen Einträge alle 0
sind.
10. Die Bedingung F 3 = F ist äquivalent zu F 3 − F = 0. Daraus folgt aufgrund
der Definition des Minimalpolynoms MF |(t 3 − t). Aus der Zerlegung
t 3 − t = t(t + 1)(t − 1)
erkennt man, dass MF in jedem Falle einfache Nullstellen besitzt. Daher erfüllt
MF die Bedingungen von Korollar 4.6.7 ii), also ist F diagonalisierbar.
Lösung der Ergänzungsaufgabe
E1. Lösungen lassen sich heutzutage mit GTR und CAS leicht überprüfen, wur-
den daher weggelassen.
Kapitel 5
Euklidische und unitäre Vektorräume

5.1 Das kanonische Skalarprodukt im Rn


1. Die Lösungen aller Teilaufgaben werden durch geradlinige Rechnungen er-
halten, die wir an dieser Stelle auslassen.
2. Für n = 1 ist nicht viel zu zeigen, da für x = (x1 ) und y = (y1 ) gilt
|⟨x, y⟩| = |x1 y1 | = |x1 | · |y1 | = ∥x∥ · ∥y∥ .
Ist n = 2, so haben x und y die Form x = (x1 , x2 ), y = (y1 , y2 ). Damit folgt
∥x∥2 · ∥y∥2 = ⟨x, x⟩⟨y, y⟩ = x12 y21 + x22 y21 + x12 y22 + x22 y22
und
⟨x, y⟩2 = (x1 y1 + x2 y2 )2 = x12 y21 + 2x1 x2 y1 y2 + x22 y22 .
Für die Differenz berechnen wir
∥x∥2 · ∥y∥2 − ⟨x, y⟩2 = x22 y21 + x12 y22 − 2x1 x2 y1 y2 = (x2 y1 − x1 y2 )2 > 0 ,
also
⟨x, y⟩2 6 ∥x∥2 · ∥y∥2 .
Wegen der Monotonie der Wurzelfunktion folgt daraus
|⟨x, y⟩| 6 ∥x∥ · ∥y∥ .
Den Fall n = 3 behandelt man ähnlich wie den letzten, nur dass die auftreten-
den Terme komplizierter werden. Dies zeigt ganz deutlich, welchen Vorteil ein
allgemeines Beweisverfahren gegenüber der Behandlung jedes einzelnen Falles
haben kann.
3. Ist L = v + Rw = v + Rw̃ und L′ = v′ + Rw′ = v′ + Rw̃′ , so existieren λ , λ ′ ∈
R r {0}, so dass w = λ · w̃ und w′ = λ ′ · w̃′ . Dann gilt
⟨w, w′ ⟩ = ⟨λ · w̃, λ ′ · w̃′ ⟩ = λ · λ ′ ⟨w̃, w̃′ ⟩ ,
∥w∥2 = ⟨w, w⟩ = ⟨λ · w̃, λ · w̃⟩ = λ 2 ⟨w̃, w̃⟩ = λ 2 ∥w̃∥2 ,
∥w′ ∥2 = ⟨w′ , w′ ⟩ = ⟨λ ′ w̃′ , λ ′ w̃′ ⟩ = λ ′ ⟨w̃′ , w̃′ ⟩ = λ ′ ∥w̃′ ∥2 .
2 2

Damit folgt unmittelbar


⟨w, w′ ⟩2 λ 2 λ ′ 2 ⟨w̃, w̃′ ⟩2 ⟨w̃, w̃′ ⟩2

= = ,
∥w∥ · ∥w ∥
2 2
λ ∥w̃∥ · λ ∥w̃ ∥
2 2 ′ 2 ′ 2 ∥w̃∥2 · ∥w̃′ ∥2
also ⟨w, w′ ⟩ ⟨w̃, w̃′ ⟩

=± . (∗)
∥w∥ · ∥w ∥ ∥w̃∥ · ∥w̃′ ∥

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_13
5.1 Das kanonische Skalarprodukt im Rn 255

Falls die Vorzeichen der Skalarprodukte ⟨w, w′ ⟩ und ⟨w̃, w̃′ ⟩ übereinstimmen, so
stimmen auch die Quotienten in (∗) überein, und damit auch die arccos-Werte,
somit gilt ^(w, w′ ) = ^(w̃, w̃′ ).
Falls ⟨w, w′ ⟩ und ⟨w̃, w̃′ ⟩ unterschiedliche Vorzeichen haben, wird es etwas
komplizierter. Ist ⟨w, w′ ⟩ > 0 und ⟨w̃, w̃′ ⟩ < 0, so gilt nach der Definition
^(w, w′ ) = ^(−w̃, w̃′ ); falls ⟨w, w′ ⟩ < 0, so folgt ⟨w̃, w̃′ ⟩ > 0 und damit
^(w̃, w̃′ ) = ^(−w, w′ ).
Die Behauptung 0 6 ^(L, L′ ) 6 π2 ist klar aufgrund der Definition des Winkels.
4. a) Für alle x, y ∈ L gibt es eindeutige Zahlen λ1 , λ2 ∈ R, so dass
x = v + λ1 w und y = v + λ2 w ,
also
x − y = (λ1 − λ2 )w .
Wenn wir zeigen können, dass
⟨s, w⟩ = 0 ⇔ ⟨s, λ w⟩ = 0 für alle λ ∈ R ,
so ist die Behauptung gezeigt. Letzteres folgt aber aus
s ⊥ w ⇔ ⟨s, w⟩ = 0 ⇔ ⟨s, λ w⟩ = λ ⟨s, w⟩ = 0 für alle λ ∈ R .
b) Nach Definition 0.2.4 gilt (a1 , a2 ) ̸= (0, 0). Im Fall a1 ̸= 0 (den Fall
a2 ̸= 0 rechnet
( man ) analog) ist nach 0.2.4 eine mögliche Wahl für L = v + Rw
durch v = ab1 , 0 und w = (−a2 , a1 ) gegeben, und w ist bis auf ein skalares
Vielfaches λ ̸= 0 eindeutig bestimmt. Damit folgt
⟨(a1 , a2 ), λ w⟩ = ⟨(a1 , a2 ), λ (−a2 , a1 )⟩ = λ (−a1 a2 + a1 a2 ) = 0 ,
also (a1 , a2 ) ⊥ L.
c) Es ist keineswegs klar, dass man d(u, L) = min{∥x − u∥ : x ∈ L} definieren
kann; eigentlich ist das Infimum zu wählen. Aufgrund der Vollständigkeit der
reellen Zahlen existiert das Minimum und kann somit direkt in der Definition
auftauchen.
Für jedes x ∈ L existiert ein eindeutiges λ0 ∈ R, so dass x = v + λ0 w gilt. Nun
rechnen wir
a)
(x − u) ⊥ L ⇔ (x − u) ⊥ w ⇔ ⟨x − u, w⟩ = 0
⇔ ⟨v + λ0 w − u, w⟩ = 0
⇔ ⟨v, w⟩ + λ0 ∥w∥2 − ⟨u, w⟩ = 0
⟨u, w⟩ − ⟨v, w⟩
⇔ = λ0 .
∥w∥2
Also ist das x = v + λ0 w mit diesem λ0 eindeutig mit (x − u) ⊥ L.
256 5 Euklidische und unitäre Vektorräume

Für ein beliebiges y = v + λ w ∈ L gilt


∥y − u∥2 = ⟨y − u, y − u⟩ = ⟨y, y⟩ − 2⟨y, u⟩ + ⟨u, u⟩
= ⟨v + λ w, v + λ w⟩ − 2⟨v + λ w, u⟩ + ⟨u, u⟩
= λ 2 ⟨w, w⟩ + λ (2⟨v, w⟩ − 2⟨w, u⟩) + ⟨u, u⟩
−2⟨v, u⟩ + ⟨v, v⟩ =: f (λ ) ,
wobei wir den Ausdruck als Funktion in λ auffassen. Um das Minimum zu be-
stimmen, bilden wir die ersten beiden Ableitungen
f ′ (λ ) = 2λ ⟨w, w⟩ + 2⟨v, w⟩ − 2⟨u, w⟩ und f ′′ (λ ) = 2⟨w, w⟩ .
Es gilt
⟨u, w⟩ − ⟨v, w⟩
f ′ (λ ) = 0 ⇔ λ = .
∥w∥2
Da f ′′ (λ ) = 2∥w∥2 > 0 für alle λ ∈ R, handelt es sich um ein Minimum. Wir
haben insgesamt gezeigt, dass das eindeutig bestimmte λ0 zum Punkt x mit
(x − u) ⊥ L dieselbe Zahl ist, an der die Funktion f ihr Minimum hat. Damit
ist der senkrechte Abstand der kürzeste.
Eine Möglichkeit, die Behauptung ohne Hilfsmittel der Analysis zu beweisen,
findet sich in der Lösung zu Aufgabe 5. Dort wird der Satz von Pythagoras be-
nutzt.
d) Für alle x, y ∈ L gilt ⟨s, x − y⟩ = 0, somit ist auch für ein beliebiges v ∈ L
⟨s, x − v⟩ = 0 für alle x ∈ L. Daraus folgt L ⊂ {x ∈ R2 : ⟨s, x − v⟩ = 0}.
Es ist L = v + Rw für geeignetes w ∈ R2 , und es gilt s ⊥ L ⇔ ⟨s, w⟩ = 0.
Umgekehrt folgt aus ⟨s, y⟩ = 0, dass y = λ w für ein λ ̸= 0. (Wären w und y linear
unabhängig, so wäre R2 = span (y, w), also gäbe es für jedes z ∈ R2 λ1 , λ2 ∈ R
mit z = λ1 y + λ2 w. Daraus folgt jedoch unmittelbar
⟨s, z⟩ = λ1 ⟨s, y⟩ + λ2 ⟨s, w⟩ = 0 ,
also s = 0 im Widerspruch zur Voraussetzung.) Daher gilt: ist x ∈ R2 mit
⟨s, x − v⟩ = 0, so gilt x − v = λ w und somit x = v + λ w ∈ L. Insgesamt ist
L = {x ∈ R2 : ⟨s, x − v⟩ = 0}.
Ist u ∈ R2 , v ∈ L und s ⊥ L, so gilt
|⟨s, u − v⟩| = ∥s∥ · ∥u − v∥ · | cos ^(s, u − v)| ,
also |⟨s, u − v⟩|
= ∥u − v∥ · | cos ^(s, u − v)| .
∥s∥
Für den Punkt x ∈ L mit (x − u) ⊥ L gilt jedoch nach der Definition des Skalar-
produktes (vgl. Bild 5.1 sowie Bild 5.3 aus [Fi1])
d(u, L) = ∥x − u∥ = ∥u − v∥ · | cos ^(x − u, u − v)|
= ∥u − v∥ · | cos ^(s, u − v)| .
5.1 Das kanonische Skalarprodukt im Rn 257

In Aufgabe 5 d) werden wir diese Argumentation auf den höherdimensionalen


Fall übertragen.

Bild 5.1

Die letzte Gleichung folgt unmittelbar aus der soeben bewiesenen durch Ein-
setzen von s = (a1 , a2 ) unter Berücksichtigung von v ∈ L.
5. a) ⇒“: Ist s orthogonal zu H, so ist für alle x, y ∈ H gerade ⟨s, x − y⟩ = 0.

Insbesondere gilt xi = v + 2wi ∈ H sowie yi = v + wi ∈ H für i = 1, . . . , n − 1 und
damit
0 = ⟨s, xi − yi ⟩ = ⟨s, wi ⟩ , also s ⊥ wi für i = 1, . . . , n − 1 .

” i=1 λi wi ∈ H und
⇐“: Ist s ⊥ wi für i = 1, . . . , n − 1, so gilt für alle x = v + ∑n−1
i=1 µi wi ∈ H
y = v + ∑n−1
n−1 n−1
⟨s, x − y⟩ = ⟨s, v + ∑ λi wi − v − ∑ µi wi ⟩
i=1 i=1
n−1 n−1
= ⟨s, ∑ (λi − µi )wi ⟩ = ∑ (λi − µi) ⟨s, w ⟩ = 0,
i=1 i=1
| {z i}
=0
also ist s orthogonal zu H.
b) Sind x = (x1 , . . . , xn ) und y = (y1 , . . . , yn ) aus H, so gilt
n n
⟨(a1 , . . . , an ), x⟩ = ∑ ai xi = b und ⟨(a1 , . . . , an ), y⟩ = ∑ ai yi = b
i=1 i=1
nach Voraussetzung. Daraus folgt jedoch
⟨(a1 , . . . , an ), x − y⟩ = b − b = 0
für alle x, y ∈ H. Damit steht (a1 , . . . , an ) senkrecht auf H.
c) Ist x ∈ H, so existieren eindeutige Zahlen λ1 , . . . , λn−1 ∈ R mit
x = v + λ1 w1 + . . . + λn−1 wn−1 . Ferner gilt unter Berücksichtigung von Teil a)
(x − u) ⊥ H ⇔ ⟨x − u, wi ⟩ = 0 für i = 1, . . . , n − 1 .
Setzt man für x die obige Darstellung ein, so ist dies gleichbedeutend mit
⟨v + λ1 w1 + . . . + λn−1 wn−1 − u, wi ⟩ = 0 für alle i = 1, . . . , n − 1 .
258 5 Euklidische und unitäre Vektorräume

Als Gleichungssystem in den Unbekannten λ1 , . . . , λn−1 betrachtet führt dies zur


erweiterten Koeffizientenmatrix
 
⟨w1 , w1 ⟩ · · · ⟨wn−1 , w1 ⟩ ⟨u − v, w1 ⟩
 .
.. .
.. .
.. .
⟨w1 , wn−1 ⟩ · · · ⟨wn−1 , wn−1 ⟩ ⟨u − v, wn−1 ⟩
Diese Matrix hat Rang n − 1, weil die wi linear unabhängig sind. Rang n − 1
des Gleichungssystems ist jedoch gleichbedeutend damit, dass es eine eindeutige
Lösung λ1 , . . . , λn−1 gibt. Durch diese λi ist x eindeutig bestimmt, was zu zeigen
war.
Ist (x − u) ⊥ H und x̃ ein weiterer Punkt auf H, so so betrachten wir die ein-
deutig bestimme Ebene E, in der x, u, x̃ liegen. In E gilt der Satz von Pythagoras
(siehe Bild 5.2 für den dreidimensionalen Fall), der in diesem Fall lautet:
∥x̃ − u∥2 = ∥x − u∥2 + ∥x − x̃∥2 ,

also wegen ∥x− x̃∥ ̸= 0 insbesondere ∥x̃−u∥2 > ∥x−u∥2 , und aus der Monotonie
der Wurzel folgt
∥x̃ − u∥ > ∥x − u∥ .

Da x̃ ∈ H beliebig mit x̃ ̸= x war, folgt d(u, H) = ∥x − u∥.

Bild 5.2
5.1 Das kanonische Skalarprodukt im Rn 259

d) Es genügt wie im Fall n = 2, die Gleichung


|⟨s, u − v⟩|
d(u, H) =
∥s∥
zu zeigen. Die in Aufgabe 4 d) angegebene Argumentation kann direkt übernom-
men werden, da s parallel zu x − u mit ∥x − u∥ = d(u, H) liegt.
6. In der Lösung der Aufgabe unterscheiden wir nicht zwischen dem Riemann-
schen Integral und dem Lebesgue-Integral, da dies für die Eigenschaften der Ab-
bildungen ∥ ∥ und ∥ ∥′ nicht von Bedeutung ist. Lediglich in der Bemerkung
am Ende der Lösung der Aufgabe sprechen wir vom Lebesgue-Integral.
Wir untersuchen zunächst die Abbildung

∥ ∥ : L (R) → R , f 7→ | f (t)| dt ,
R
und benutzen an den geeigneten Stellen die Linearität und die Monotonie des
Integrals (vgl. [Fo1], §18, Satz 5 oder [Ba], Satz 12.3).
Ist λ ∈ R und f ∈ L (R), so gilt, da der Betrag eine Norm ist (vgl. [Fo1], §3)
∫ ∫ ∫
∥λ · f ∥ = |λ · f (t)| dt = |λ | · | f (t)| dt = |λ | · | f (t)| dt = |λ | · ∥ f ∥ ,
R R R
also N2. Ebenso bestimmen wir für f , g ∈ L (R)
∫ ∫
∥ f + g∥ = | f (t) + g(t)| dt 6 | f (t)| + |g(t)| dt
R
∫ ∫ R
= | f (t)| dt + |g(t)| dt = ∥ f ∥ + ∥g∥ ,
R R
damit gilt N3.
Die Aussage N1 gilt jedoch nicht, denn für ein f ∈ L (R) ist

∥ f ∥ = 0 ⇔ | f (t)| dt = 0 .
R
Das heißt jedoch nicht, dass f = 0 ist, wie das Beispiel
{
1 für t = i ,
fi (t) =
0 sonst
aus 2.2.6 zeigt.
Um diesen Nachteil zu beheben, definiert man die Abbildung
∥ ∥′ : L (R)/N → R , f + N 7→ ∥ f ∥ .
Sie erbt die Eigenschaften N2 und N3 von der Abbildung ∥ ∥, aber zusätzlich
gilt N1, denn für ein f ∈ L (R) ist

∥ f ∥′ = 0 ⇔ ∥ f ∥ = 0 ⇔ | f (t)| dt = 0 ⇔ f ∈ N ,
R
d.h. f + N = 0 + N .
260 5 Euklidische und unitäre Vektorräume

Die Menge L (R) ist ein Spezialfall der Menge L p (R) der p-fach integrier-
baren Funktionen mit p ∈ N r {0}, d.h. der Abbildungen, für die das Integral

| f (t)| p dt existiert, und die Abbildung ∥ ∥ ist ein Spezialfall der Abbildungen
R
( )1
∫ p
∥ ∥ p : L p (R) → R , f 7→ | f (t)| p dt .
R

Die Abbildungen ∥ ∥ p erfüllen die Eigenschaften N2 und N3, solche Abbildun-


gen heißen Halbnormen.
Behält man die Menge N wie gehabt bei und bildet den Quotienten L p (R)/N ,
so sind die Abbildungen
∥ ∥′p : L p (R)/N → R , f + N 7→ ∥ f ∥ p ,
( )
wiederum Normen, und die Räume L p (R)/N , ∥ ∥′p sind Banachräume. Die-
se Räume spielen eine Rolle in der Funktionentheorie, zu Einzelheiten siehe
[M-V], §13.

5.2 Das Vektorprodukt im R3


1. Die Lösung dieser Aufgabe ist ganz einfach, wenn wir überlegt vorgehen.
Der ganze Trick besteht darin, die Summanden richtig zu ordnen und im passen-
den Augenblick die Null in der richtigen Form zu addieren, so dass alles passt.
Besitzen die Vektoren die Komponenten x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ) sowie
z = (z1 , z2 , z3 ), so berechnen wir zunächst
y × z = (y2 z3 − y3 z2 , y3 z1 − y1 z3 , y1 z2 − y2 z1 ) ,

und daraus
x × (y × z) = (x2 (y1 z2 − y2 z1 ) − x3 (y3 z1 − y1 z3 ) ,
x3 (y2 z3 − y3 z2 ) − x1 (y1 z2 − y2 z1 ),
x1 (y3 z1 − y1 z3 ) − x2 (y2 z3 − y3 z2 ))
= ((x2 z2 + x3 z3 )y1 − (x2 y2 + x3 y3 )z1 ,
(x3 z3 + x1 z1 )y2 − (x3 y3 + x1 y1 )z2 ,
(x1 z1 + x2 z2 )y3 − (x1 y1 + x2 y2 )z3 )
= ((x2 z2 + x3 z3 )y1 − (x2 y2 + x3 y3 )z1 + x1 y1 z1 − x1 y1 z1 ,
(x3 z3 + x1 z1 )y2 − (x3 y3 + x1 y1 )z2 + x2 y2 z2 − x2 y2 z2 ,
(x1 z1 + x2 z2 )y3 − (x1 y1 + x2 y2 )z3 + x3 y3 z3 − x3 y3 z3 )
5.2 Das Vektorprodukt im R3 261

= ((x1 z1 + x2 z2 + x3 z3 )y1 , (x1 z1 + x2 z2 + x3 z3 )y2 ,


(x1 z1 + x2 z2 + x3 z3 )y3 )
− ((x1 y1 + x2 y2 + x3 y3 )z1 , (x1 y1 + x2 y2 + x3 y3 )z2 ,
(x1 y1 + x2 y2 + x3 y3 )z3 )
= ⟨x, z⟩y − ⟨x, y⟩z .
Der zweite Teil der Aufgabe ergibt sich daraus durch
x × (y × z) + y × (z × x) + z × (x × y)
= ⟨x, z⟩y − ⟨x, y⟩z + ⟨y, x⟩z − ⟨y, z⟩x + ⟨z, y⟩x − ⟨z, x⟩y = 0 ,
wobei im zweiten Schritt die Symmetrie des Skalarproduktes ausgenutzt wurde.
Zum Thema Jacobi-Identität vgl. auch Aufgabe E7 in Abschnitt 5.4.
2. Die beiden Behauptungen folgen durch geradlinige Rechnung. Anders als bei
Aufgabe 1 ist hier nicht einmal ein Trick vonnöten. Aus diesem Grunde lassen
wir die Lösung hier aus.
3. Anschaulich ist die Behauptung
x, y, z sind linear unabhängig ⇔ x × y, y × z, z × x sind linear unabhängig
sofort klar, da x × y senkrecht auf der durch x und y aufgespannten Ebene steht.
Wir wollen es uns trotzdem etwas genauer überlegen.
⇐“: Sind x, y, z linear abhängig, so sei o.B.d.A.

z = λ1 x + λ2 y mit (λ1 , λ2 ) ̸= (0, 0) .
Dann aber folgt mit Hilfe der Rechenregeln aus 5.2.1
z × x = λ1 x × x + λ2 y × x = −λ2 x × y
sowie
y × z = λ1 y × x + λ2 y × y = −λ1 x × y .
Damit liegen z × x und y × z in span (x × y), also sind die drei Vektoren x × y,
y × z und z × x linear abhängig.
⇒“: Nach Bemerkung 5.2.2, Teil a) steht x × y senkrecht auf der von x und

y aufgespannten Ebene, in Zeichen (x × y) ⊥ span (x, y) =: E1 , und analog gilt
(y × z) ⊥ span (y, z) =: E2 sowie (z × x) ⊥ span (x, z) =: E3 . Sind x × y, y × z
und z × x linear abhängig, so liegen sie in einer Ebene E. Das aber bedeutet,
dass E1 ∩ E2 ∩ E3 eine Gerade L = R · v enthält (siehe Bild 5.3 für den Fall, dass
die drei Vektoren x × y, y × z und z × x paarweise verschieden sind). Damit gilt
v ∈ span (x, y), v ∈ span (y, z) und v ∈ span (z, x), was nur dann sein kann, wenn
x, y, z linear abhängig sind.
Die Argumentation in dieser Lösung ist anschaulicher Natur. In der Lösung zu
Aufgabe 6 b) wird hingegen algebraisch argumentiert.
262 5 Euklidische und unitäre Vektorräume

Bild 5.3

4. Die Lösung dieser Aufgabe befindet sich in der Lösung von Aufgabe 2 zu 0.3,
in der in Ermangelung einer festen Theorie mit den Komponenten der Vektoren
gerechnet wurde.
5. a) Ist L = E ∩ E ′ und U = W ∩ W ′ , so sind L und U parallele affine Räume.
Aus dimU = 1 folgt damit sofort L = u +U für alle u ∈ L, vgl. auch Bemerkung
2.3.2.
b) Wegen W ̸= W ′ ist w ̸= 0. Weiter gilt w ∈ W aufgrund von s ⊥ W und
w ⊥ s (vgl. Aufgabe 5 zu 5.1), und analog folgt w ∈ W ′ . Insgesamt gilt so-
mit w ∈ W ∩ W ′ = U. Da U ein Vektorraum ist, folgt sofort Rw ⊂ U. Aus
dimU = 1 = dim(Rw) folgt Rw = U.
Um eine Parameterdarstellung für den Schnitt von
E = (0, 2, 3) + R(3, 6, 5) + R(1, 7, −1)
und
E ′ = (−1, 3, 2) + R(8, 2, 3) + R(2, −1, −2)
zu bestimmen, berechnen wir zunächst die notwendigen Vektoren. Wir erhalten

e1 e2 e3

s = w1 × w2 = 3 6 5 = (−41, 8, 15) ,
1 7 −1

e1 e2 e3

s′ = w′1 × w′2 = 8 2 3 = (−1, 22, −12)
2 −1 −2
sowie
s × s′ = (−41, 8, 15) × (−1, 22, −12) = (−426, −507, −894) = w ,
und damit U = R · (−426, −507, −894).
5.2 Das Vektorprodukt im R3 263

Um einen Vektor aus E ∩ E ′ zu bestimmen, setzen wir beide Ebenengleichun-


gen gleich:
(0, 2, 3)+λ1 (3, 6, 5)+λ2 (1, 7, −1) = (−1, 3, 2)+λ3 (8, 2, 3)+λ4 (2, −1, −2) ,
in Matrizenschreibweise
( lautet die )
Standardform
( )
−3 −1 8 2 1 −3 −1 8 2 1
−6 −7 2 −1 −1 ; −15 −15 12 0 −1 .
−5 1 3 −2 1 −8 0 11 0 2
Eine Lösung ist gegeben durch
λ1 = 8 , λ2 = − 15
47
, λ3 = 6 , λ4 = − 196
15 .
Mit λ1 und λ2 berechnen wir einen Schnittpunkt:
(0, 2, 3) + 8 · (3, 6, 5) − 15
47
· (1, 7, −1) = ( 313 421 692
15 , 15 , 15 ) ,
also ist
15 (313, 421, 692) + R · (−426, −507, −894) .
1
L=

6. a) Die beiden Regeln folgen unmittelbar aus den Rechenregeln D1 a) und b)


für Determinanten, siehe 3.1.2.
b) Per definitionem gilt
n
x(1) × . . . × x(n−1) = ∑ (−1)i+1 (det Ai ) · ei ,
i=1
wobei Ai aus der ursprünglichen Matrix durch Streichen der i-ten Spalte entsteht.
Also folgt mit der linearen Unabhängigkeit der ei
x(1) × . . . × x(n−1) = 0 ⇔ det Ai = 0 für alle i .
Nach Satz 3.3.6 ist dies gleichbedeutend damit, dass die Vektoren x(1) , . . . , x(n−1)
linear abhängig sind.
c) Die Behauptung zeigen wir durch eine Rechnung, bei der benutzt wird, dass
die Vektoren e1 , . . . , en eine Orthonormalbasis bilden. Es gilt
n n
⟨x(1) × . . . × x(n−1) , y⟩ = ⟨ ∑ (−1)i+1 (det Ai ) · ei , ∑ y j e j ⟩
i=1 j=1
n
= ∑ (−1)i+1(det Ai) · yi
i=1
 
y1 ··· yn
 x1
(1)
··· xn
(1) 
 
= det  .. .. .
 . . 
(n−1) (n−1)
x1 ··· xn
264 5 Euklidische und unitäre Vektorräume

d) Mit Aufgabe c) gilt  


(i) (i)
x1 ··· xn
 
 x1
(1)
··· xn
(1) 
⟨x(1) × . . . × x(n−1) , x(i) ⟩ = det 
 .. ..
 = 0,

 . . 
(n−1) (n−1)
x1 ··· xn
da zwei gleiche Zeilen auftreten.

5.3 Das kanonische Skalarprodukt im Cn


1. Es sei v = (x1 , y1 , . . . , xn , yn ) mit ω (v, w) = 0 für alle
w = (x1′ , y′1 , . . . , xn′ , y′n ) ∈ R2n .
Dann gilt dies insbesondere für die Vektoren
wi := (0, . . . , 0, xi′ = 1, 0, . . . , 0) und wi := (0, . . . , 0, y′i = 1, 0, . . . , 0) .
Jedoch ist
ω (v, wi ) = −yi = 0 und ω (v, wi ) = xi = 0
für i = 1, . . . , n. Das bedeutet v = 0.
2. Mit den Bezeichnungen für v und w wie in Aufgabe 1 gilt
J(w) = (−y′1 , x1′ , . . . , −y′n , xn′ ) .
Damit berechnen wir
n ( ) n
xν yν
ω (v, J(w)) = ∑ det ′ ′ = ∑ (xν xν′ + yν yν′ ) = ⟨v, w⟩ .
−yν xν
ν =1 ν =1

3. a) V1 ist erfüllt, da V ein R-Vektorraum und J ein Endomorphismus ist. Um


V2 nachzuweisen, berechnen wir ( )
((x + iy) + (x′ + iy′ )) · v = (x + x′ ) + i(y + y′ ) · v
| {z } | {z }
=λ =µ
= (x + x′ ) ·v + (y + y′ ) ·J(v)
| {z } | {z }
∈R ∈R
(∗)
= (x · v + y · J(v)) + (x′ · v + y′ · J(v))
= λ ·v+ µ ·v,
wobei an der Stelle (∗) benutzt wurde, dass V ein R-Vektorraum ist. Ebenso
rechnen wir
λ · (v + w) = (x + iy) · (v + w) = x · (v + w) + y · J(v + w)
(∗∗)
= x · v + x · w + y · J(v) + y · J(w)
= (x · v + y · J(v)) + (x · w + y · J(w))
= λ ·v+λ ·w,
5.3 Das kanonische Skalarprodukt im Cn 265

wobei an der Stelle (∗∗) benutzt wurde, dass V ein R-Vektorraum und J ein
Endomorphismus ist. Weiter gilt
( ) ( )
λ · (µ · v) = λ · (x′ + iy′ ) · v = λ · x′ · v + y′ · J(v)
′ ′
= (x + iy) · x · v + (x + iy) · y · J(v)
= x · x′ · v + y · x′ · J(v) + x · y′ · J(v) + y · y′ · J 2 (v)
= (xx′ · v + (yx′ + xy′ ) · J(v) −) yy′ · v
= ((xx′ − yy′ ) + i(yx)′ + xy′ ) · v
= (x + iy)(x′ + iy′ ) · v = (λ · µ ) · v .

1 · v = v ist wegen 1 ∈ R ⊂ C und der R-Vektorraumeigenschaften von V klar.


b) Da V als R-Vektorraum endlichdimensional ist, ist die C-Dimension ebenfalls
endlich, denn eine R-Basis von V ist immerhin ein C-Erzeugendensystem von V .
Ist ∞ > n = dimCV , so gilt dimRV = 2n, wie wir nun beweisen wollen. Genauer
behaupten wir: Ist v1 , . . . , vn eine Basis von CV , so ist v1 , . . . , vn , J(v1 ), . . . , J(vn )
eine Basis von RV .
i) Es liegt ein Erzeugendensystem vor: Sei v ∈ RV = CV . Dann existieren
λ1 , . . . , λn ∈ C, so dass v = λ1 v1 + . . . + λn vn . Wegen λν = xν + iyν mit xν , yν ∈ R
für ν = 1, . . . , n können wir dafür auch schreiben
v = (x1 + iy1 )v1 + . . . + (xn + iyn )vn
= x1 v1 + . . . + xn vn + y1 J(v1 ) + . . . + yn J(vn )
∈ spanR (v1 , . . . , vn , J(v1 ), . . . , J(vn )) .

ii) Für die lineare Unabhängigkeit der Vektoren sei


x1 v1 + . . . + xn vn + y1 J(v1 ) + . . . + yn J(vn ) = 0 ,

wobei die xν und yν für ν = 1, . . . , n aus R stammen. Diese Gleichung können


wir mit Hilfe der komplexen Vektorraumstruktur von V auch schreiben als
(x1 + iy1 )v1 + . . . + (xn + iyn )vn = 0 .

Da (v1 , . . . , vn ) eine Basis von CV ist, folgt


(x1 + iy1 ) = . . . = (xn + iyn ) = 0 ,

woraus jedoch wegen der linearen Unabhängigkeit von 1 und i über R sofort
x1 = . . . = xn = y1 = . . . = yn = 0

folgt, also sind v1 , . . . vn , J(v1 ), . . . , J(vn ) linear unabhängig.


Insgesamt haben wir gezeigt, dass die Dimension von RV gleich 2n, also ins-
besondere gerade ist.
266 5 Euklidische und unitäre Vektorräume

5.4 Bilinearformen und Sesquilinearformen


1. Sei s : V ×V → V eine Bilinearform. Wir verwenden denselben Trick wie in
Aufgabe 3c) zu Abschnitt 1.6 und definieren
1
ss (v, w) := 2 (s(v, w) + s(w, v)) ,
2 (s(v, w) − s(w, v)) .
1
sa (v, w) :=
Nach Konstruktion ist ss symmetrisch und sa alternierend. Ferner gilt
ss (v, w) + sa (v, w) = 12 (s(v, w) + s(w, v) + s(v, w) − s(w, v)) = s(v, w) .
Ist s = s̃s + s̃a eine weitere Zerlegung, wobei s̃s symmetrisch und s̃a antisymme-
trisch ist, gilt für alle v, w ∈ V
s̃s (v, w) + s̃a (v, w) = ss (v, w) + sa (v, w)
und
s̃s (v, w) − s̃a (v, w) = ss (v, w) − sa (v, w) .
Addition der beiden Gleichungen ergibt für alle v, w ∈ V
2s̃s (v, w) = 2ss (v, w) ,
was gleichbedeutend zu s̃s = ss ist. Subtraktion der beiden Gleichungen liefert
s̃a (v, w) = sa (v, w)
für alle v, w ∈ V , also s̃a = sa . Damit sind beide Abbildungen eindeutig.
2. Nach dem Austauschlemma aus 1.5.4 ist B eine Basis von V .
Die Matrix MB (s) berechnen wir mittels MB (s) = t TAB · MA (s) · TAB (vgl.
5.4.3), wobei die Matrix TAB gegeben ist durch
( )
1 0 0
B
TA = 1 1 1 .
0 1 0
Damit erhalten wir
( )( )( ) ( )
1 1 0 1 1 2 1 0 0 4 5 2
MB (s) = 0 1 1 1 1 1 1 1 1 = 3 4 2 .
0 1 0 0 1 1 0 1 0 2 2 1

3. Die Eigenschaften B1 und B2 von s folgen direkt aus der Linearität der Ab-
bildungen F und G. Die Matrix ist ebenfalls leicht zu bestimmen:
( )
( ) a1 b1 a1 b2 a1 b3
MB (s) = s(ei , e j ) i, j = a2 b1 a2 b2 a2 b3 .
a3 b1 a3 b2 a3 b3
5.4 Bilinearformen und Sesquilinearformen 267

4. a) Wir berechnen
∥v + w∥2 + ∥v − w∥2 = ⟨v + w, v + w⟩ + ⟨v − w, v − w⟩
= ⟨v, v⟩ + 2⟨v, w⟩ + ⟨w, w⟩
+⟨v, v⟩ − 2⟨v, w⟩ + ⟨w, w⟩
= 2⟨v, v⟩ + 2⟨w, w⟩ = 2∥v∥2 + 2∥w∥2 .

b)∗ Für eine Norm ∥ ∥ mit der gewünschten Eigenschaft ∥v∥ = ⟨v, v⟩ muss für
zwei Vektoren v, w ∈ V gelten
∥v + w∥2 = ∥v∥2 + ∥w∥2 + 2⟨v, w⟩ .
Wir definieren daher
( )
⟨v, w⟩ := 1
2 ∥v + w∥2 − ∥v∥2 − ∥w∥2 .
Man beachte die Analogie zur Polarisierung 5.4.4.
Da die Norm ∥ ∥ die Parallelogramm-Gleichung erfüllt, gilt
2∥v + w∥2 − 2∥v∥2 − 2∥w∥2 = ∥v + w∥2 − ∥v − w∥2 ,
und damit folgt
( ) ( )
⟨v, w⟩ = 12 ∥v + w∥2 − ∥v∥2 − ∥w∥2 = 14 ∥v + w∥2 − ∥v − w∥2 .
Bestimmen wir für v = w das Skalarprodukt, so erhalten wir
( )
⟨v, v⟩ = 41 ∥v + v∥2 − ∥v − v∥2 = 41 · ∥2v∥2 = ∥v∥2 ,
wie es gefordert war.
Es seien v, v′ , w ∈ V . Wir berechnen
( )
⟨v + v′ , w⟩ = 14 ∥v + v′ + w∥2 − ∥v + v′ − w∥2
= 14 (∥v + v′ + w∥2 + ∥v − v′ − w∥2 − ∥v − v′ − w∥2
−∥v + v′ − w∥2 )
(∗) 1 ( )
= 4 2∥v∥2 + 2∥v′ + w∥2 − 2∥v − w∥2 − 2∥v′ ∥2
= 21 (∥v′ + w∥2 − ∥v′ ∥2 + ∥v∥2 − ∥v − w∥2
−∥v + w∥2 + ∥v + w∥2 )
(∗) 1 ( )
= 2 ∥v + w∥2 − ∥v∥2 − ∥w∥2 + ∥v′ + w∥2 − ∥v′ ∥2 − ∥w∥2

= ⟨v, w⟩ + ⟨v , w⟩ ,
wobei an den Stellen (∗) die Parallelogramm-Gleichung verwendet wurde.
Die Symmetrie von ⟨ , ⟩ ist klar, und die positive Definitheit folgt aus der
Eigenschaft N1 der Norm sowie ⟨v, v⟩ = ∥v∥2 für alle v ∈ V .
Es bleibt, ⟨λ v, w⟩ = λ ⟨v, w⟩ für alle v, w ∈ V und alle λ ∈ R zu zeigen. Dies ist
der schwierigste Teil der Aufgabe. Wir beginnen damit, die Aussage für λ ∈ N
per Induktion zu zeigen.
Für λ = 0 oder λ = 1 ist die Behauptung klar.
268 5 Euklidische und unitäre Vektorräume

Um den Induktionsschritt zu zeigen, ersetzen wir in der obigen Rechnung v′


durch (λ − 1)v und erhalten
⟨λ v, w⟩ = ⟨v + (λ − 1)v, w⟩ = ⟨v, w⟩ + ⟨(λ − 1)v, w⟩ .
Auf den zweiten Summanden der rechten Seite können wir nun die Induktions-
voraussetzung anwenden, und damit folgt
⟨λ v, w⟩ = ⟨v, w⟩ + (λ − 1)⟨v, w⟩ = λ ⟨v, w⟩ .
Ist λ ∈ Z mit λ < 0, so ist −λ > 0. Wegen
0 = ⟨0, w⟩ = ⟨v − v, w⟩ = ⟨v, w⟩ + ⟨−v, w⟩
gilt −⟨−v, w⟩ = ⟨v, w⟩ für alle v, w ∈ V , also ist
⟨λ v, w⟩ = −⟨−λ v, w⟩ = −(−λ )⟨v, w⟩ = λ ⟨v, w⟩ ,
und damit ist die Behauptung auch für alle λ ∈ Z gezeigt.
Für λ = qp ∈ Q gilt
q
p · ⟨ qp v, w⟩ = qp · p · ⟨ q1 v, w⟩ = ⟨q · 1q v, w⟩ = ⟨v, w⟩ ,
und das beweist die Behauptung für λ ∈ Q.
Im letzten Schritt gilt es nun, die Aussage für eine beliebige reelle Zahl zu
zeigen. Ist λ ∈ R, so gibt es zu jedem ε > 0 ein λε ∈ Q mit |λ − λε | 6 ε .
Aus den Eigenschaften N2 und N3 der Norm sowie der Monotonie der Qua-
dratfunktion folgt
∥(λ − λε )v + w∥2 6 (λ − λε )2 · ∥v∥2 + 2(λ − λε ) · ∥v∥ · ∥w∥ + ∥w∥2 . (1)
Analog erhält man
∥(λε − λ )v + w∥2 6 (λε − λ )2 · ∥v∥2 + 2(λε − λ ) · ∥v∥ · ∥w∥ + ∥w∥2 . (2)
Mit diesen beiden Gleichungen folgt
⟨λ v, w⟩ − λε ⟨v, w⟩ 6 ε · ∥v∥ · ∥w∥ , (3)
wie mit (1) für ⟨λ v, w⟩ − λε ⟨v, w⟩ > 0 gezeigt wird und mit (2) für ⟨λ v, w⟩ −
λε ⟨v, w⟩ 6 0 analog verläuft. Mit der Definition des Skalarproduktes ergibt sich
|⟨λ v, w⟩ − λε ⟨v, w⟩| = ⟨λ(v, w⟩ − λε ⟨v, w⟩ = ⟨(λ − λε )v, w⟩
6 12 (λ − λε )2 · ∥v∥2 + 2(λ − λε ) · ∥v∥ · ∥w∥ + ∥w∥2
)
−(λ − λε )2 · ∥v∥2 − ∥w∥2
= (λ − λε ) · ∥v∥ · ∥w∥ < ε · ∥v∥ · ∥w∥ .
Andererseits ist stets
|λ ⟨v, w⟩ − λε ⟨v, w⟩| = |λ − λε | · |⟨v, w⟩| 6 ε · ⟨v, w⟩| ,
und mit der Dreiecksungleichung folgt aus den letzten beiden Gleichungen
|⟨λ v, w⟩ − λ ⟨v, w⟩| 6 |⟨λ v, w⟩ − λε ⟨v, w⟩| + |λε ⟨v, w⟩ − λ ⟨v, w⟩|
6 ε · ∥v∥ · ∥w∥ + ε · |⟨v, w⟩|
= ε · (∥v∥ · ∥w∥ + |⟨v, w⟩|) .
5.4 Bilinearformen und Sesquilinearformen 269

Da ε beliebig klein gewählt werden kann, folgt ⟨λ v, w⟩ = λ ⟨v, w⟩.


Eine analoge Aussage gilt auch für eine Norm auf einem C-Vektorraum V , die
die Parallelogramm-Gleichung erfüllt, vgl. hierzu [M-V], §11.
5. a) Es gilt ∥x∥ = 0 ⇔ max{|xi | : 1 6 i 6 n} = 0, was aufgrund von |y| > 0 für
alle y ∈ R gleichbedeutend ist mit xi = 0 für i = 1, . . . , n, also x = 0. Das zeigt
N1. N2 gilt wegen
∥λ · x∥ = max{|λ · xi | : 1 6 i 6 n} = max{|λ | · |xi | : 1 6 i 6 n}
= |λ | · max{|xi | : 1 6 i 6 n} = |λ | · ∥x∥ .
Schließlich folgt N3 aus
(∗)
∥x + y∥ = max{|xi + yi | : 1 6 i 6 n} 6 max{|xi | + |yi | : 1 6 i 6 n}
6 max{|xi | : 1 6 i 6 n} + max{|yi | : 1 6 i 6 n} = ∥x∥ + ∥y∥ ,
wobei (∗) aufgrund der Dreiecksungleichung gilt. Damit ist ∥ ∥√eine Norm.
Nehmen wir an, es existiert ein Skalarprodukt mit ∥x∥ = ⟨x, x⟩ für alle
x ∈ Rn , wobei n > 2 gilt. Nach Aufgabe 4 a) gilt dann die Parallelogramm-
Gleichung. Jedoch ist für x = (1, 1, 0, . . . , 0) und y = (1, −1, 0, . . . , 0) gerade
∥x + y∥2 + ∥x − y∥2 = 22 + 22 = 8 ̸= 4 = 2 + 2 = 2∥x∥2 + 2∥y∥2 .
Daher kann es kein solches Skalarprodukt geben.
b) Die Eigenschaften D1 bis D3 zeigen wir folgendermaßen:

∥ f − g∥k
∑ 2−k 1 + ∥ f − g∥ k
= 0 ⇔ ∥ f − g∥k = 0 für alle k ∈ N
k=0
⇔ max{| f (x) − g(x)| : x ∈ [−k, k]} = 0
für alle k ∈ N
⇔ f (x) = g(x) für alle x ∈ R
⇔ f = g,
das beinhaltet D1. Wegen | f (x) − g(x)| = |g(x) − f (x)| für alle x ∈ R gilt
∥ f − g∥k = ∥g − f ∥k für alle k, und daraus folgt d( f , g) = d(g, f ), also D2.
Die Dreiecksungleichung D3 folgt aus
∞ ∞
∥ f − g∥k ∥g − h∥k
d( f , g) + d(g, h) = ∑ 2−k + ∑ 2−k
k=0 1 + ∥ f − g∥k k=0 1 + ∥g − h∥k

∥ f − g∥k + ∥ f − g∥k ∥g − h∥k + ∥g − h∥k + ∥ f − g∥k ∥g − h∥k
= ∑ 2−k
k=0 1 + ∥ f − g∥k + ∥g − h∥k + ∥ f − g∥k · ∥g − h∥k
∞ (∗) ∞
(∗) ∥ f − g∥ + ∥g − h∥ ∥ f − h∥
> ∑ 2−k 1 + ∥ f − g∥
k k
k + ∥g − h∥k
> ∑ 1 + ∥ f − h∥
k
k
,
k=0 k=0
270 5 Euklidische und unitäre Vektorräume

wobei die beiden mit (∗) gekennzeichnete Relationen für jeden einzelnen Sum-
manden und damit für die gesamte Summe gelten. Dabei wurden die Dreiecks-
x+y
ungleichung für den Betrag sowie die Ungleichung 1+x x
6 1+x+y für alle x > 0
und alle y > 0 benutzt.
Nehmen wir an, es existiert eine Norm ∥ ∥ : V → R+ mit
∥ f − g∥ = d( f , g) für alle f , g ∈ C (R; R) ,
so gilt insbesondere

∥f∥
∥ f ∥ = d( f , 0) = ∑ 2−k 1 + ∥ fk∥k
k=0
für alle f ∈ C (R; R). Wählen wir f = 1 und λ = 2, so gilt
∥λ · f ∥k = max {|λ · f (x)| : x ∈ [−k, k]} = 2 ,
womit folgt
∞ ∞
∥λ f ∥
∥λ · f ∥ = ∑ 2−k 1 + ∥λ fk∥k = ∑ 2−k 32
k=0 k=0
∞ ∞
∥ f ∥k
̸= 2 · ∑ 2−k 21 = 2 · ∑ 2−k = |λ | · ∥ f ∥ .
k=0 k=0 1 + ∥ f ∥k

6. Die Folgerungen i) ⇒ ii) und i) ⇒ iii) zeigen wir gleichzeitig. Ist v ∈ V , so gibt
es eine eindeutige Darstellung v = λ1 v1 + . . . + λr vr . Aus der Orthonormalität der
vi folgt unmittelbar ⟨v, vi ⟩ = λi , also v = ∑ri=1 ⟨v, vi ⟩ · vi . Ferner folgt für ⟨v, vi ⟩ = 0
für alle i, dass v = 0 ist.
Für iii) ⇒ iv) wählen wir zwei Vektoren
r r
v = ∑ ⟨v, vi ⟩ · vi und w = ∑ ⟨w, v j ⟩ · v j .
i=1 j=1
Dann folgt
r r
⟨v, w⟩ = ⟨ ∑ ⟨v, vi ⟩ · vi , ∑ ⟨v j , w⟩ · v j ⟩
i=1 j=1
r r
=
| {z } ∑
∑ ⟨v, vi⟩⟨v j , w⟩ · ⟨v i, v j ⟩ = ⟨v, vi ⟩ · ⟨vi , w⟩ .
i, j=1 i=1
δi j

Dabei ist δi j wie in der Lösung zu Aufgabe 2 d) in Abschnitt 1.5 das Kronecker-
Symbol.
iv) ⇒ v) folgt aus
r r
∥v∥2 = ⟨v, v⟩ = ∑ ⟨v, vi ⟩2 = ∑ |⟨v, vi ⟩|2 .
i=1 i=1
5.4 Bilinearformen und Sesquilinearformen 271

Die vi sind orthonormal, also linear unabhängig. Für v) ⇒ i) ist daher nur
V = span (v1 , . . . , vr ) zu zeigen. Nehmen wir an, dies ist nicht der Fall. Wir
ergänzen die vi zu einer Orthonormalbasis (v1 , . . . , vr , w1 , . . . , ws ) von V . Für
jedes j = 1, . . . , s gilt dann 1 = ∥w j ∥2 . Nach v) gilt jedoch
r
∥w j ∥2 = ∑ |⟨w j , vi ⟩| = 0 ,
i=1
und wegen 0 ̸= 1 ist dies ein Widerspruch.
Es fehlt noch ii) ⇒ i). Wir ergänzen (v1 , . . . , vr ) zu einer Orthonormalbasis
(v1 , . . . , vr , w1 , . . . , ws ) von V . Für jedes j = 1, . . . , s gilt dann ⟨w j , vi ⟩ = 0 für alle
i, und aus ii) folgt w j = 0, also s = 0 und V = span (v1 , . . . , vr ).
7. a) Zunächst ist für alle f , g ∈ V

1 ∫
⟨ f + g, h⟩ = π ( f (x) + g(x)) · h(x)dx
0
2π 2∫π
1 ∫
= π f (x) · h(x)dx + π1 g(x) · h(x)dx = ⟨ f , h⟩ + ⟨g, h⟩ ,
0 0
sowie
2π 2π
1 ∫ λ ∫
⟨λ f , g⟩ = π λ f (x) · g(x)dx = π f (x) · g(x)dx = λ ⟨ f , g⟩ ,
0 0
daher gilt B1. Die Eigenschaft S folgt aus
2π 2π
1 ∫ 1 ∫
⟨ f , g⟩ = π f (x) · g(x)dx = π g(x) · f (x)dx = ⟨g, f ⟩ ,
0 0
und B2 folgt aus B1 und S.
b) Zu zeigen ist die Orthonormalität der Elemente aus B. Für all diejenigen,
die nicht gerne integrieren, gilt: Alle auftretenden Integrale befinden sich in der
Integrationstabelle von [B-S], S. 52ff, Integrale 274ff.
Wegen
2∫π 2∫π
cos(nx)dx = sin(nx)dx = 0 für alle n ∈ N r {0}
0 0
gilt √ √ 2∫π
⟨ 12 2, cos(nx)⟩ = 2
2π cos(nx)dx =0
0
sowie √ √ 2∫π
⟨ 12 2, sin(nx)⟩ = 2
2π sin(nx)dx =0
0
für alle n ∈ N r {0}. Diese Vektoren sind somit orthogonal. Wegen
√ √ 2∫π
⟨ 21 2, 12 2⟩ = π1 12 dx = 1
0
272 5 Euklidische und unitäre Vektorräume

und 2π
1 ∫
⟨cos(nx), cos(nx)⟩ = π cos2 (nx)dx = 1 ,
0
sowie 2π
1 ∫
⟨sin(nx), sin(nx)⟩ = π sin2 (nx)dx = 1
0
sind sie sogar normiert.
Mit Hilfe von partieller Integration sowie Additionstheoremen zeigen wir für
m ̸= n

1 ∫
π sin(nx) sin(mx)dx
0
2π 2∫π
= − π1n cos(nx) sin(mx) 0 + πmn sin(nx) sin(mx) + cos((n + m)x)dx ,
0
und daraus folgt
2∫π 2π
(n − m) sin(nx) sin(mx)dx = − cos(nx) sin(mx) 0
0

m
+ n+m sin((n + m)x) 0 = 0 ,
also ⟨sin(nx), sin(mx)⟩ = 0 für n ̸= m. Eine analoge Rechnung zeigt
⟨cos(nx), cos(mx)⟩ = 0 für n ̸= m ,
damit sind diese Vektoren orthonormal. Schließlich erhalten wir

1 ∫

π sin(nx) cos(mx)dx = − 1 cos(nx) cos(mx)
nπ 0
0
2∫π
− nmπ cos(nx) sin(mx)dx .
0
Für n = m folgt hier bereits ⟨cos(nx), sin(nx)⟩ = 0 für alle n ∈ N r {0}. Ist n ̸= m,
so zeigen wir durch eine weitere Integration

1 ∫

π sin(nx) cos(mx)dx = − n1π cos(nx) sin(mx) 0
0
2π ∫π
2 2
− nm2 π sin(nx) sin(mx) + nm2 π sin(nx) cos(mx)dx .
0 0
Da die beiden ersten Terme auf der rechten Seite verschwinden, folgt
⟨sin(nx), cos(mx)⟩ = 0
für alle n, m ∈ N r {0}. Damit sind wir fertig.
c) Die Behauptung
√ folgt aus Aufgabe 6, Bedingung iii). Man beachte, dass auch
a0 = ⟨ f , 22 ⟩ ein Fourierkoeffizient ist, obwohl er in der Aufgabe nicht explizit
aufgeführt ist.
5.4 Bilinearformen und Sesquilinearformen 273

d)∗ In der Aufgabenstellung der Teile d)∗ und e)∗ der zehnten sowie der elften
a20
Auflage der Linearen Algebra hat sich ein Fehler eingeschlichen. Statt 2 bzw.
a0 a′0
2 muss in der Aufgabenstellung bzw. a20stehen. a0 a′0
Für jede endliche Summe
a0 √ n
fn := 2 + ∑ ak cos(kx) + bk sin(kx)
2 k=1
definieren wir f˜n := f − fn .
Dann gilt
0 6 ∥ f˜n ∥2 = ⟨ f˜n , f˜n ⟩
√ n n
= ∥ f ∥2 − 2a0 ⟨ f , 21 2⟩ − 2 ∑ ak ⟨ f , cos(kx)⟩ − 2 ∑ bk ⟨ f , sin(kx)⟩
k=1 k=1
a0 √ n
+⟨ 2 + ∑ ak cos(kx) + bk sin(kx),
2 k=1
a0 √ n
2 + ∑ ak cos(kx) + bk sin(kx)⟩
2 k=1
n n n ( )
(∗)
= ∥ f ∥2 − 2a20 − 2 ∑ a2k − 2 ∑ b2k + a20 + ∑ a2k + b2k
k=1 k=1 k=1
(
n )
= ∥f∥ 2
− a20 − ∑ a2k + b2k = ∥ f ∥2 ,
k=1
wobei an der Stelle (∗) die Orthonormalität der Basisvektoren von B ausgenutzt
wurde. Umformung ergibt n ( )
∥ f ∥2 > a20 + ∑ a2k + b2k .
k=1
Da dies für alle n ∈ N r {0} gilt, folgt die Behauptung.
e)∗ Betrachten wir die Lösung von Teil d), so erkennen wir, dass die Gleichheit
bei der Besselschen Ungleichung nicht gilt, wenn f nicht durch seine Fourier-
Reihe dargestellt werden kann, d.h. wenn gilt
( )
a0 √ n
lim 2 + ∑ (ak cos kx + bk sin kx) ̸= f (x) . (∗)
n→∞ 2 k=1
Gilt für zwei Funktionen f und g punktweise Konvergenz für die (∗) entspre-
chenden Reihen ihrer Fourierkoeffizienten, so wird die Besselsche Ungleichung
für sie zur Gleichung, und dies ist gleichbedeutend mit
∞ ( )
⟨ f , g⟩ = a0 a′0 + ∑ ak a′k + bk b′k .
k=1
274 5 Euklidische und unitäre Vektorräume

Seien nun f , g ∈ V stückweise stetig differenzierbar. Nach der Theorie der punkt-
weisen Konvergenz von Fourier-Reihen (vgl. [B-F1], Kapitel 12, Abschnitt 4))
wird jede auf [0, 2π ] stetige stückweise differenzierbare Funktion durch ihre
Fourier-Reihe dargestellt, d.h. es gilt punktweise Konvergenz, somit
a0 √ ∞
2 + ∑ (ak cos kx + bk sin kx)
2
(k=1 )
a0 √ n
:= lim 2 + ∑ (ak cos kx + bk sin kx) = f (x)
n→∞ 2 k=1
und
a′0 √ ∞ ( )
2 + ∑ a′k cos kx + b′k sin kx
2
(k=1 )
a′0 √ n ( )
:= lim 2 + ∑ a′k cos kx + b′k sin kx = g(x) .
n→∞ 2 k=1
Wir definieren nun
a0 √ n
ϑn := ⟨ f − 2 − ∑ (ak cos kx + bk sin kx) ,
2 k=1
a′0 √ n ( )
g− 2 − ∑ a′k cos kx + b′k sin kx ⟩
2 k=1
n ( )
= ⟨ f , g⟩ − a0 a′0 − ∑ ak a′k + bk b′k .
k=1
Da f und g durch ihre Fourier-Reihen dargestellt werden, folgt
lim ϑn = ⟨0, 0⟩ = 0 ,
n→∞
und damit
n ( ) ∞ ( )
⟨ f , g⟩ = a0 a′0 + lim
n→∞
∑ ak a′k + bk b′k = a0 a′0 + ∑ ak a′k + bk b′k .
k=1 k=1

Fourier-Reihen spielen in der Analysis eine Rolle, weil bestimmte Funktionen


wie in dieser Aufgabe durch trigonometrische Funktionen dargestellt werden
können. Dabei müssen diese Funktionen nicht einmal stetig sein. Zur Theorie
der Fourier-Reihen vgl. [B-F1], Kapitel 12.
Fourier-Reihen finden ebenfalls in der Physik Anwendung bei der Darstellung
periodischer Vorgänge, vgl. [G], Kapitel III, §9 und [C-H], Kapitel II, §5 und
§10.
5.4 Bilinearformen und Sesquilinearformen 275

Die Besselsche Ungleichung gilt unter allgemeineren Bedingungen als in die-


ser Aufgabe, nämlich in einem Prähilbertraum zusammen mit einem Orthonor-
malsystem von Vektoren. Gilt unter diesen Bedingungen Gleichheit in der Bes-
selschen Ungleichung, so heißt sie Gleichung von Parseval. Für Einzelheiten
siehe [M-V], §12.
8. Wir berechnen wie im Text beschrieben zunächst orthogonale Vektoren und
normieren diese anschließend.
Der erste Vektor w1 = t (1, 0, 0, 0, 0) dient als Startpunkt und ist bereits nor-
miert. Den im Beweis des Orthonormalisierungssatzes mit v bezeichneten Vek-
tor bezeichnen wir im i-ten Schritt mit vi , entsprechend die normierten Vektoren
mit ṽi . Dann ist v2 = t (1, 0, 1, 0, 0) und ṽ2 = ⟨v2 , w1 ⟩ · w1 = t (1, 0, 0, 0, 0). Daraus
folgt
w2 = v2 − ṽ2 = t (0, 0, 1, 0, 0) .
Auch dieser Vektor ist bereits normiert.
Für den nächsten Schritt gilt v3 = t (1, 1, 1, 0, 2), damit ergibt sich
ṽ3 = ⟨v3 , w1 ⟩w1 + ⟨v3 , w2 ⟩w2 = t (1, 0, 1, 0, 0) .
Der Vektor w̃3 := v3 − ṽ3 = t (0, 1, 0, 0, 2) muss nun normiert werden:
1
w3 = · w̃3 = √15 · t (0, 1, 0, 0, 2) .
∥w̃3 ∥
Wir fahren wie bisher fort und erhalten
ṽ4 = ⟨v4 , w1 ⟩ · w1 + ⟨v4 , w2 ⟩ · w2 + ⟨v4 , w3 ⟩ · w3 = t (2, 75 , 0, 0, 14
5 ).
Damit erhalten wir den Vektor w̃4 = v4 − ṽ4 = t (0, − 25 , 0, 2, 15 ), der wiederum
nicht normiert ist. Das ist jedoch schnell erledigt:
1
w4 = · w̃4 = √105
1
· t (0, −2, 0, 10, 1) .
∥w̃4 ∥
Die Vektoren (w1 , w2 , w3 , w4 ) bilden nun eine Orthonormalbasis des in der Auf-
gabe gegebenen Untervektorraumes.
Eine Bemerkung zum Schluss: In den meisten Fällen ist es sinnvoll, die Normie-
rung der Vektoren erst ganz am Ende vorzunehmen, da hierbei im Allgemeinen
Zahlen auftreten, mit denen sich nur schwer rechnen lässt. In unserer
√ Aufgabe
jedoch waren bereits zwei Vektoren normiert, und mit der Zahl 5 kann man
eigentlich ganz gut rechnen. Daher bereitete es keine Schwierigkeiten, die Nor-
mierung der Vektoren direkt vorzunehmen.
9. a) Die Matrix von s bezüglich der gegebenen Basis ist symmetrisch, da s eine
symmetrische Bilinearform ist. Daher müssen nur zehn der sechzehn benötigten
Einträge berechnet werden.
276 5 Euklidische und unitäre Vektorräume

Es sei MB (s) = (ai j ) mit ai j = s(t i ,t j ) für 0 6 i, j 6 3. Damit errechnen wir


leicht
∫1 ∫1
s(1, 1) = 1 dt = 2 , s(1,t) = t dt = 0 ,
−1 −1
∫1 ∫1
s(1,t 2 ) = t 2 dt = 23 , s(1,t 3 ) = t 3 dt = 0 ,
−1 −1
∫1 ∫1
s(t,t) = t 2 , dt = 32 , s(t,t 2 ) = t 3 dt = 0 ,
−1 −1
∫1 ∫1
s(t,t 3 ) = t 4 dt = 25 , s(t 2 ,t 2 ) = t 4 dt = 52 ,
−1 −1
∫1 ∫1
s(t 2 ,t 3 ) = t 5 dt = 0 , s(t 3 ,t 3 ) = t 6 dt = 72 .
−1 −1
Für die Matrix erhalten wir  
2
2 0 3 0
 0 2
0 2 

MB (s) =  2 3 5 .
3 0 2
5 0 
2 2
0 5 0 7
b) Die Vektoren 1 und t sind bereits √ zueinander orthogonal, jedoch beide (!)
nicht normiert. Wegen ∥1∥ = 2 ist w1 := √12 normiert. Analog folgt, dass

w2 := 32 t normiert ist. Für den Rest der Aufgabe wählen wir dieselben Be-
zeichnungen wie in Aufgabe 8. Zunächst ist
√ √ ∫1 ∫1
ṽ3 = ⟨t 2 , √12 ⟩ · √12 + ⟨t 2 , 32 t⟩ · 32 t = 21 t 2 dt + 32 t t 3 dt = 31 ,
−1 −1
also
w̃3 = v3 − ṽ3 = t 2 − 31 ,
und damit √
1
w3 = · w̃3 = 45 8 (t − 3 ) .
2 1
∥w̃3 ∥
Für den vierten Vektor führt die analoge Rechnung zu
ṽ4 = 35 t , w̃4 = t 3 − 53 t ,
und schließlich √
w4 = 175 8 (t − 5 t) .
3 3

Damit ist B = (w1 , w2 , w3 , w4 ) eine Orthonormalbasis von V .


5.4 Bilinearformen und Sesquilinearformen 277

10.∗ Die Konstruktion einer Darboux-Basis verläuft ähnlich wie die Konstrukti-
on einer Orthonormalbasis im Orthonormalisierungssatz. Wir formulierern daher
zunächst die Aussage der Aufgabe etwas anders:
Sei V ein endlichdimensionaler symplektischer Vektorraum und W ⊂ V ein
Untervektorraum mit Darboux-Basis (v1 , . . . , vm , w1 , . . . , wm ). Dann gibt es ei-
ne Ergänzung zu einer Darboux-Basis
(v1 , . . . , vn , w1 , . . . , vn ) von V .
Da W = 0 erlaubt ist, folgt die Aussage der Aufgabe.
Wir wählen die Bezeichnungen wie im Beweis des Orthonormalisierungssatzes,
um die Analogie aufzuzeigen.
Ist W = V , so ist nichts mehr zu zeigen. Ansonsten gibt es einen Vektor
v ∈ V rW , und wir definieren
ṽ := ω (v1 , v)w1 + . . . + ω (vm , v)wm + ω (v, w1 )v1 + . . . + ω (v, wm )vm .
Nun setzen wir vm+1 := v − ṽ und berechnen
ω (vm+1 , v j ) = ω (v, v j ) − ω (ṽ, v j )
m ( )
= ω (v, v j ) − ∑ ω (vi , v)ω (wi , v j ) + ω (v, wi )ω (vi , v j )
i=1
= ω (v, v j ) + ω (v j , v) = 0
sowie durch analoge Rechnung
ω (vm+1 , w j ) = 0
für alle j = 1, . . . , m. Daraus folgt insbesondere, dass vm+1 ∈ / W ist.
Da ω schiefsymmetrisch ist, folgt ω (vm+1 , vm+1 ) = 0. Damit gilt jedoch
ω (vm+1 , v) = 0 für alle v ∈ span (v1 , . . . , vm+1 , w1 , . . . , wm ) =: W ′ ,
also ist W ′ ̸= V , da ω nicht-entartet ist. Also existiert ein w ∈ V r W ′ mit
ω (vm+1 , w) ̸= 0, und wir definieren ähnlich wie im ersten Schritt
m
w̃ := ∑ (ω (vi , w)wi + ω (w, wi )vi ) + ω (w, vm+1 )vm+1 .
i=1
Setzen wir wie oben w̃m+1 := w − w̃, so gilt für alle j = 1, . . . , m
m ( )
ω (w̃m+1 , v j ) = ω (w, v j ) − ∑ ω (vi , w)ω (wi , v j ) − ω (w, wi )ω (vi , v j )
i=1
−ω (w, vm+1 )ω (vm+1 , v j )
= ω (w, v j ) + ω (v j , w) = 0 ,
und analog folgt ω (w̃m+1 , w j ) = 0 für alle j = 1, . . . , m. Andererseits gilt
ω (vm+1 , w̃m+1 ) = ω (vm+1 , w) ̸= 0
278 5 Euklidische und unitäre Vektorräume

nach Voraussetzung. Setzen wir nun


w̃m+1
wm+1 := ,
ω (vm+1 , w)
so gilt
ω (vm+1 , wm+1 ) = 1 .
Indem wir das Verfahren so oft wie nötig wiederholen, gelangen wir zum ge-
wünschten Ergebnis.
Mit den Methoden aus Abschnitt 5.7 lässt sich der Beweis deutlich kürzen,
vgl. Aufgabe E1 zu 5.7.
Ist eine Darboux-Basis B eines symplektischen Vektorraumes gegeben, so be-
deutet dies, dass die darstellende Matrix von ω die Form
 
0 1 0
 −1 0 
 
 . 
MB (ω ) =  .. 
 
 0 1 
0 −1 0
besitzt. Diese Matrix ist leichter zu merken als die Bedingungen an die schief-
symmetrische Bilinearform ω .
Die symplektische Struktur von Vektorräumen und Mannigfaltigkeiten wird
in der Differentialgeometrie, der Darstellungstheorie von Lie-Gruppen und der
Mathematischen Physik betrachtet. Siehe hierzu beispielsweise [F-H], Lecture
16, [Arn], Chapter 8, insbesondere §41, oder die folgenden Ergänzungsaufgaben
E4 bis E11.
Lösungen der Ergänzungsaufgaben
E1. Wir geben zu dieser Aufgabe nur die Lösungen ohne die Rechnungen an. Zu
beachten ist dabei, dass je nach Anfangsvektor die Lösung im Allgemeinen nicht
eindeutig ist.
a) Die Dimension des gegebenen Unterraumes ist gleich 2, und eine Orthonor-
malbasis ist gegeben durch
w1 = √114 · t (1, 2, 3) , w2 = √121 · t (4, 1, −2) .
b) Die drei gegebenen Vektoren sind linear unabhängig, eine mögliche Ortho-
normalbasis besteht aus
w1 = √15 · t (2, 1, 0, 0) , w2 = √130
1
· t (1, −2, 10, 5) ,

w3 = √ 1 · t (−1, 2, −10, 21) .


546
5.4 Bilinearformen und Sesquilinearformen 279

c) Die Dimension des gegebenen Unterraumes ist 4, und eine mögliche Ortho-
normalbasis ist
w1 = 12 · t (1, i, −i, 0, 1) , w2 = √13 · t (i, 1, 0, i, 0) ,

w3 = √1 · t (i, 3, 1 + 4i, −4i, 4 + i) ,


60

w4 = √ 1 · t (7 − 13i, 6 − 6i, i, −13 + 7i, 19i) .


870

E2. Nach der Lösung von Aufgabe 2 c) zu 1.5 ist eine Basis gegeben durch
(t,t 2 + 1,t 2 + t). Hierbei sind die Vektoren v1 = t und v2 = t 2 + 1 orthogonal,
denn ∫1 1
s(v1 , v2 ) = t(t 2 + 1)dt = 1 t 4 + 1 t 2 = 0 .
4 2 −1
−1

3
Wie in Aufgabe 9 b) ist w1 := 2t normiert. Ferner ergibt sich
∫1
s(v2 , v2 ) = (t 2 + 1)2 dt = 56
15 ,
−1

also ist w2 := 15 2
56 (t + 1) normiert.
Mit dem Verfahren von Schmidt erhalten wir weiterhin
ṽ3 = s(v3 , w1 )w1 + s(v3 , w2 )w2 = 72 t 2 + 27 ,
und damit
w̃3 = v3 − ṽ3 = 57 t 2 − 72 .
Hiermit ergibt sich
√ (5 )
1
w3 = · w̃3 = 21
· 7t
2− 2 .
∥w̃3 ∥ 2 7

E3. Es ist einfach zu zeigen, dass es sich bei der Abbildung um ein Skalarprodukt
handelt; wir lassen die Rechnungen an dieser Stelle aus. Die in Aufgabe 2 d) zu
Abschnitt 1.5 bestimmte Basis ( fr ∈ V : fr (x) = δxr ) ist eine Orthonormalbasis,
denn
⟨ fr , fr ⟩ = fr (r) · fr (r) = 1 ,
und für r ̸= s gilt
⟨ fr , fs ⟩ = fr (r) · fs (r) + fr (s) · fs (s) = 0 .
280 5 Euklidische und unitäre Vektorräume

E4. a) Nach der Definition gelten


n n n n
Sp (A · B) = ∑ ∑ ai j · b ji = ∑ ∑ b ji · ai j = Sp (B · A) .
i=1 j=1 j=1 i=1
b) Mit Hilfe von Aufgabenteil a) gilt
( ) ( )
Sp B−1 · (A · B) = Sp (A · B) · B−1
( )
= Sp A · (B · B−1 ) = Sp (A) .

E5. a) Wir betrachten den Fall K = C; für K = R verläuft die Lösung fast analog.
Aus den Rechenregeln 1), 2) in 2.5.4 in [Fi1] folgen die Regeln (B1) und (B2).
Davon zeigen wir ( ) ( )
s(A, λ B) = Sp t (λ B) · A = Sp λ̄ · t B · A
(t )
= λ̄ · Sp B · A = λ̄ · Sp(A, B) .
Für A = (ai j ) und B = (bi j ) gilt
m
t
B · A = (cik ) mit cik = ∑ b̄ jia jk
j=1
sowie m
t
A · B = (dik ) mit dik = ∑ ā jib jk ,
j=1

woraus cii = ∑mj=1 b̄ ji a ji und dii = ∑mj=1 ā ji b ji folgt. Wegen b̄ ji a ji = (ā ji b ji ) gilt
cii = d¯ii , und damit
s(A, B) = s(B, A) ,
also die Bedingung (H), d.h. s ist eine hermitesche Bilinearform.
Für A ∈ M(m × n; C) ist eii := ∑mj=1 ā ji a ji ∈ R+ nach 1.3.4 b), und damit gilt
n
s(A, A) = ∑ eii ∈ R+ mit s(A, A) = 0 ⇔ A = 0 ,
i=1
also ist s positiv definit.
b) Die Dimension von V ist gleich 4, und wie man durch Ausprobieren heraus-
findet, ist eine Orthonormalbasis
(( ) ( von V )
gegeben
( durch
) ( ))
1 0 0 1 0 0 0 0
B= , , , .
0 0 0 0 1 0 0 1
Man beachte, dass dies nicht die einzige Möglichkeit für eine Orthonormalbasis
ist.
 
a11 A1
E6. (1) Wir schreiben A =  ..
.  ∈ M(n; K). Hierbei ist A1 das
A2 ann
5.4 Bilinearformen und Sesquilinearformen 281

obere Matrizendreieck der Elemente ai j mit j > i und A2 das untere Matrizen-
dreieck der Elemente ai j mit i > j. Für λ ∈ K gilt dann
 
λ · a11 λ · A1
Sp (λ · A) = Sp  ..
. 
λ · A2 λ · ann
n n n
= ∑ λ · aii = λ · ∑ aii = λ · ∑ Sp A .
i=1 i=1 i=1
 
b11 B1
(2) Für A wie oben und analog definiertes B =  ..
.  gilt
B2 bnn
n n n
Sp (A + B) = ∑ (aii + bii ) = ∑ aii + ∑ bii = Sp A + Sp B .
i=1 i=1 i=1
Damit wurde die Behauptung bewiesen.
E7. a) Die Behauptung folgt aus
n n n n
Sp (A · B) = ∑ ∑ ai j b ji = ∑ ∑ b jiai j = Sp (B · A).
i=1 j=1 j=1 i=1
b) Die Gesetzmäßigkeiten lassen sich durch Rechnung nachweisen. Aus Teil a)
folgt, dass sl(n; K) eine Lie-Algebra ist.
c) Wir betrachten die Wohldefiniertheit. Es seien A, B,C ∈ M(n; K), so dass [A, B]
und [C, B] schiefsymmetrisch sind. Dann gilt
[A +C, B] = (A +C) · B − B · (A +C)
= (A · B − B · A) + (C · B − B ·C)
~
= [A, B] + [C, B] = − t[B, A] − t[B,C]
~~
= −t[B, A +C] .
Hierbei wurde an der Stelle ~ berücksichtigt, dass [A, B] und [C, B] schiefsym-
metrisch sind. An der Stelle ~~ wurden analoge Schritte wie zu Beginn der
Rechnung, nur entgegengesetzt, durchgeführt.
d) Es gilt tA = −A. Daraus folgt aii = 0 für alle i = 1, . . . , n; damit ist Sp A = 0.
e) Es gilt
t
[A, B] = t(AB − BA) = t(AB) − t(BA)
= −B · (−A) − (−A) · (−B) = −AB + BA
= −(A · B − B · A) = −[A, B] .
Damit ist [A, B] ∈ o(n; K).
282 5 Euklidische und unitäre Vektorräume

E8. a) Es sei A = (ai j ) ∈ u(n). Die Elemente in der Diagonale der Matrix haben
die Form aii = a + i · b mit a, b ∈ R.
Es gilt
aii = −āii ⇐⇒ a + i · b = −(a − i · b) ⇐⇒ a + i · b = −a + i · b ⇐⇒ a = 0.
Daher folgt aii ∈ i · R.
b) Das Additionsgesetz ist klar. Wir weisen die Regel des Skalarprodukts nach.
Wir betrachten hier die Diagonalelemente aii von A, da es sich um imaginäre
Zahlen handelt. Für die übrigen Elemente der Matrix A gelten die Rechenregeln,
da C ein Körper und R ⊂ C ein Unterkörper der reellen Zahlen sind.
Für λ ∈ R und aii ∈ i · R folgt λ · aii ∈ i · R. Damit ist die Bedingung, dass die
Diagonalelemente der Matrix λ · A imaginär sind, erfüllt.
Für λ ∈ C mit λ = b + i · c (mit b, c ∈ R) und aii = i · a ∈ i · R (d.h. a ∈ R) folgt
λ · aii = (b + i · c) · i · a = i · ab − ac ∈
/ i·R.
Daher ist u(n) zwar ein R-, aber kein C-Vektorraum.
c) Für A, B ∈ u(n) gilt A = − tĀ und B = − tB̄. Hieraus folgen
(t ) (t )
t
A = − t Ā = −Ā und tB = − t B̄ = −B̄ . ~
Damit lässt sich berechnen:
t
[A, B] = t(AB − BA) = t(AB) − t(BA)
= tB · tA − tA · tB
~
= (−(B̄) · (−Ā) − (−) Ā) · (−B̄) = B̄ · Ā − Ā · B̄
= − Ā · B̄ − B̄ · Ā = −(A · B − B · A)
= −[A, B] .

E9. Da u(n) und sl(n; C) Vektorräume über die reellen Zahlen sind und
u(n) ∩ sl(n, C) ein Vektorraum ist, folgt die Behauptung.
E10. Wir formen zunächst die drei Terme um:
[A, [B,C]] = [A, (BC −CB)]
= A · (BC −CB) − (BC −CB) · A
= ABC − ACB − BCA +CBA ,
[B, [C, A]] = [B, (CA − AC)]
= B · (CA − AC) − (CA − AC) · B
= BCA − BAC −CAB + ACB ,
[C, [A, B]] = [C, (AB − BA)]
= C · (AB − BA) − (AB − BA) ·C
= CAB −CBA − ABC + BAC .
5.4 Bilinearformen und Sesquilinearformen 283

Hiermit folgt
[A, [B,C]] + [B, [C, A]] + [C, [A, B]] = ABC − ACB − BCA +CBA
+ BCA − BAC −CAB + ACB
+ CAB −CBA − ABC + BAC
= 0.

E11. a) Wir betrachten die sechs Permutationen ξi , 1 6 i 6 6 aus S3 :


[ ] [ ] [ ]
1 2 3 1 2 3 1 2 3
ξ1 = , ξ2 = , ξ3 = ,
1 2 3 1 3 2 2 3 1
[ ] [ ] [ ]
1 2 3 1 2 3 1 2 3
ξ4 = , ξ5 = , ξ6 = .
2 1 3 3 1 2 3 2 1
Für diese Permutationen gilt
sign (ξ1 ) = 1, sign (ξ2 ) = −1, sign (ξ3 ) = 1,
sign (ξ4 ) = −sign (ξ1 ), sign (ξ5 ) = −sign (ξ2 ), sign (ξ6 ) = −sign (ξ3 ) .
Daher genügt es, die Fälle ξ1 , ξ2 und ξ3 zu untersuchen, denn wegen
σi · σ j − σ j · σi = −(σ j · σi − σi · σ j ) folgt
[σ2 , σ1 ] = −[σ1 , σ2 ], [σ3 , σ1 ] = −[σ1 , σ3 ] und [σ3 , σ2 ] = −[σ2 , σ3 ] .
Es gilt
( ) ( ) ( ) ( )
0 1 0 −i 0 −i 0 1
[ σ1 , σ2 ] = · − ·
1 0 i 0 i 0 1 0
( ) ( ) ( )
i 0 −i 0 2i 0
= − =
0 −i 0 i 0 −2i
= 2 · i · sign (ξ1 ) · σ3 ,
( ) ( ) ( ) ( )
0 1 1 0 1 0 0 1
[σ1 , σ3 ] = · − ·
1 0 0 −1 0 −1 1 0
( ) ( ) ( )
0 −1 0 1 0 −2
= − =
1 0 −1 0 2 0
= 2 · i · (−1) · σ2 = 2 · i · sign (ξ2 ) · σ2
und ( ) ( ) ( ) ( )
0 −i 1 0 1 0 0 −i
[σ2 , σ3 ] = · − ·
i 0 0 −1 0 −1 i 0
( ) ( ) ( )
0 i 0 −i 0 2i
= − =
i 0 −i 0 2i 0
= 2 · i · sign (ξ3 ) · σ2 ,
Hiermit folgt die Behauptung.
284 5 Euklidische und unitäre Vektorräume

b) Wir unterscheiden die Fälle i = j und i ̸= j.


Für i = j: Es gilt σi · σ j = 2 · σi2 . Damit folgt
( )2
0 1
ξ12 = = σ0 ,
1 0
( )2
0 −i
ξ22 = = σ0 , und
i 0
( )2
0 1
ξ32 = = σ0 ,
1 0
was zu zeigen war.
Für i ̸= j: Aufgrund der Gültigkeit des Kommutativgesetzes sei o.B.d.A. i < j.
Dann gilt ( ) ( )
i 0 −i 0
σ1 σ2 + σ2 σ1 = + = 0,
0 −i 0 i
( ) ( )
0 −1 0 1
σ1 σ3 + σ3 σ1 = + = 0,
1 0 −1 0
( ) ( )
0 i 0 −i
σ2 σ3 + σ3 σ2 = + = 0.
i 0 −i 0

Damit ist die Behauptung bewiesen.


c) Um die Lösung übersichtlicher
( zu)notieren, definieren
( wir )
i 0 0 i
η0 = i · σ0 = , η1 = i · σ1 = ,
( 0 )i i (0 )
0 1 i 0
η2 = i · σ2 = , und η0 = i · σ3 = .
−1 0 0 −i
Hiermit beweisen wir die vier Aussagen.
i) Bei ( )
i · b11 a12 + i · b12
u(2) = {A = : ai j , bi j ∈ R}
−a12 + i · b12 i · b22
ist eine Lösung der Gleichung
A = λ0 · η0 + λ1 · η1 + λ2 · η2 + λ3 · η3
zu finden. Die Lösungen λ1 = b12 und λ2 = a12 lassen sich sofort ablesen.
Für λ0 , λ3 ∈ R gilt: ( ) ( )
λ0 + λ3 0 b11 0
λ0 · η0 + λ3 · η3 = i · = i· .
0 λ0 − λ3 0 b22
Damit ergibt sich das LGS
λ0 + λ3 = b11 ,
λ0 − λ3 = b22 .
5.4 Bilinearformen und Sesquilinearformen 285

Hiermit folgt
A = 21 (b11 + b22 ) · η0 + b12 · η1 + a12 · η2 + 21 (b11 − b22 ) · η3 ,
und es gilt R u(2) = R span(η0 , η1 , η2 , η3 ).
ii) Über C gelten gl(2; C) ⊂ span(η0 , η1 , η2 , η3 ) und
dimgl(2; C) = span(η0 , η1 , η2 , η3 ) = 4 .
Damit folgt
gl(2; C) = span(η0 , η1 , η2 , η3 ) .
iii) Für A ∈ sl(2; C) gilt
( ) ( ) ( )
a11 a12 i 0 0 a12
A= = −i · a11 · + .
a21 a22 0 −i a21 0
Da η1 , η2 linear unabhängig über R sind und
{( )}
0 a12
dim span(η1 , η2 ) = 2 = dim : a12 , a21 ∈ C)
a21 0
gilt, folgt die Behauptung, d.h. sl(2; C) = span(η1 , η2 , η3 ).
iv) Es gilt su(2) = u(2) ∩ sl(2; C). Außerdem gelten
u(2) = span(η1 , η2 , η3 ) und sl(2; C) = span(η, η2 , η3 ) ,
woraus su(2) = span(η1 , η2 , η3 ) folgt.
Die lineare Unabhängigkeit lässt sich zeigen, indem man die (2 × 2)-Matrizen
als Vektoren des C4 auffasst, sie als Spalten einer (4 × 4)-Matrix notiert und den
Rang dieser Matrix bestimmt, d.h.:
( )
i 0
η0 = ; t(i, 0, 0, i) ,
0 i
( )
0 i
η1 = ; t(0, i, i, 0) ,
i 0
( )
0 1
η2 = ; t(0, 1, −1, 0) ,
−1 0
( )
i 0
η3 = ; (i, 0, 0, −i) .
0 −i
Dies führt zur Matrix  
i 0 0 i
 0 i 1 0 
A=
0 i −1 0 
.
i 0 0 −i
Es gilt rang C (A) = rang R (A) = 4. Hieraus folgt die Behauptung.
286 5 Euklidische und unitäre Vektorräume

E12. a) Man wähle ( )


−1 0 0

A = 0 1 0
0 0 1
Dann multipliziere man A′ mit x = t(1, x1 , x2 ).
( ) ( ) ( ) ( )
−1 0 0 1 −1 1
(1, x1 , x2 ) · 0 1 0 · x1 = x1 · x1 = −1 + x12 + x22 .
0 0 1 x2 x2 x2
Damit ist Q eine Quadrik, denn rang (A′ ) = 3 > 1.
b) Es sei t(m1 , m2 ) der Mittelpunkt, r sei der Radius. Es gilt für die Kreisglei-
chung
(x1 − m1 )2 + (x2 − m2 )2 − r2 = 0
genau dann, wenn
x12 − 2m1 x1 + m21 + x22 − 2m2 x2 + m22 − r2 = 0.
Nach einer Rechnung ähnlich wie in Teil a) gilt für die Komponenten der ge-
suchten symmetrischen Matrix A′
a00 + 2a01 x1 + 2a02 x2 + 2a12 x1 x2 + a11 x12 + a22 x22 = 0 .
Hiermit folgt durch Koeffizientenvergleich
a11 = a22 = 1, a01 = a10 = −m1 , a02 = a20 = −m2 , a00 = m21 + m22 − r2
ist. Insgesamt folgt  
m21 + m22 − r2 −m1 −m2
A =

−m1 1 0 .
−m2 0 1
E13. a) Wir führen eine Rechnung für A = (ai j )06i, j62 durch und sehen dann,
welche Bedingungen die Einträge ai j erfüllen müssen.
( ) ( )
a00 a01 a02 1
(1, x1 , x2 ) · A · (1, x1 , x2 ) = (1, x1 , x2 ) ·
t a 10 a 11 a 12 · x1
a20 a21 a22 x2
( )
1
= (a00 + x1 a10 + a2 x20 , a01 + x1 a11 + x2 a21 , a02 + x1 a12 + x2 a22 ) · x1
x2
= a00 + x1 a10 + x2 a20 + x1 (a01 + x1 a11 + x2 a21 ) + x2 (a02 + x1 a12 + x2 a22 )
~
= a00 + 2a01 x1 + 2a02 x2 + 2a12 x1 x2 + a11 x12 + a22 x22 .
An der Stelle ~ wurde die Symmetrie der Matrix A benutzt. Damit folgt
a1 = a11 , a2 = a22 , a3 = 2a12 , b1 = 2a01 , b2 = 2a02 , c = a00 ,
also  1 1

c 2 b1 2 b2
A =  12 b1 a1 21 a3  .
1 1
2 b2 2 a3 a2
5.4 Bilinearformen und Sesquilinearformen 287

Es ist sinnvoll, sich diesen Transfer zu merken, er kommt häufiger vor. (Vgl.
auch E1 b) für ( einen simplen Fall.)
)
−1 0 0
b) Es sei A′ = 0 1 0 . Hiermit gilt
0 0 −1
( )( ) ( )
−1 0 0 1 1
(1, x1 , x2 ) 0 1 0 x1 = (−1, x1 , −x2 ) x1 = −1 + x12 − x22 .
0 0 −1 x2 x2
c) Wir wählen  
−1 0
 1 
A′ =  ,
1
0 0
und damit gilt
    
−1 0 1 1
 1   x1   x1 
(1, x2 , x2 , x3 )    x  = (−1, x1 , x2 , 0)  x 
1 2 2
0 0 x3 x3
= −1 + x12 + x22 .
Dies zeigt die Behauptung.
d) Hier wählen wir  
0 0
 1 
A′ =  ,
1
0 −1
so folgt
   
0 0 1 1
 1   x1   x1 
(1, x2 , x2 , x3 ) 
1   x  = (0, x1 , x2 , −x3 )  x2 
2
0 −1 x3 x3
= x12 + x22 − x32 .

E14. Im Teil b) von Aufgabe E1 haben wir herausgefunden, dass für die Kom-
ponenten einer symmetrischen Matrix A′ = (ai j )06i, j62 und x = t(x1 , x2 , x3 ) gilt:
t
x · A′ · x = a00 + 2a01 x1 + 2a02 x2 + 2a12 x1 x2 + a11 x12 + a22 x22 = 0 .
Mit analogen Überlegungen zeigt sich, dass allgemein für eine symmetrische
Matrix A′ = (ai j )06i, j6n und x = t(x1 , x2 , . . . , xn ) und x0 = 1 gilt:
n
t
x · A′ · x = ∑ ai j · xi · x j .
i, j=0
288 5 Euklidische und unitäre Vektorräume

Definieren wir jetzt die symmetrische Bilinearform β durch β (x, x) = ∑ni=1 aii xi2 ,
die Linearform ω durch ω (x) = 2 · ∑ni=1 a0i xi und schließlich α = a00 , so haben
wir die Behauptung bewiesen.

5.5 Orthogonale und unitäre Endomorphismen


1. Es gilt
∥F(x) × F(y)∥2 = ∥F(x)∥2 · ∥F(y)∥2 − ⟨F(x), F(y)⟩2
(∗)
= ∥x∥2 · ∥y∥2 − ⟨x, y⟩2
(∗)
= ∥x × y∥2 = ∥F(x × y)∥2 ,
wobei an den Stellen (∗) die Orthogonalität von F benutzt wurde. Daher existiert
für jedes (x, y) ∈ R3 × R3 mit F(x × y) ̸= 0 ein λ (x, y) ∈ R mit |λ (x, y)| = 1, so
dass F(x) × F(y) = λ (x, y) · F(x × y). Allerdings ist F linear, also stetig; daher
ist λ = λ (x, y) konstant und auf R3 × R3 fortsetzbar.
Um λ = det F zu zeigen, betrachten wir die Matrix A von F. Ihre Spalten
bilden nach Bemerkung 5.5.2 eine Orthonormalbasis x, y, z des R3 . Aus Beispiel
c) in 5.5.4 folgt ⟨A(x) × A(y), A(z)⟩ = 1, und mit Hilfe von Bemerkung 5.2.2 a)
erhalten wir daraus
1 = ⟨A(x) × A(y), A(z)⟩ = λ ⟨A(x × y), A(z)⟩ = λ ⟨x × y, z⟩ = λ · det A .
Wegen |λ | = 1, d.h. λ ∈ {−1, 1} folgt daraus λ = det F.
2. ⇐“: Aufgrund der Orthogonalität von G gilt für alle v, w ∈ V r {0}

⟨F(v), F(w)⟩ = ⟨λ · G(v), λ · G(w)⟩ = λ 2 ⟨G(v), G(w)⟩ = λ 2 ⟨v, w⟩ ,
sowie
√ √ √
∥F(v)∥ = ⟨F(v), F(v)⟩ = |λ | ⟨G(v), G(v)⟩ = |λ | ⟨v, v⟩ = |λ | · ∥v∥
und
∥F(w)∥ = |λ | · ∥w∥ .
Also gilt für alle v, w ∈ V r {0}
⟨F(v), F(w)⟩ λ 2 ⟨v, w⟩
^(F(v), F(w)) = arccos = arccos 2
∥F(v)∥ · ∥F(w)∥ λ ∥v∥ · ∥w∥
⟨v, w⟩
= arccos = ^(v, w) .
∥v∥ · ∥w∥
Die Injektivität von F ist klar.
⇒“: Es sei (ei )i∈I eine Orthonoermalbasis von V und λi := ∥F(ei )∥ für alle

i ∈ I.
Es wird nun gezeigt, dass λi = λ j für alle i, j ∈ I gilt.
5.5 Orthogonale und unitäre Endomorphismen 289

Aufgrund der Bijektivität des arccos auf ] − 1; 1[ ist


^(F(v), F(w)) = ^(v, w)
gleichbedeutend mit
⟨F(v), F(w)⟩ ⟨v, w⟩
= .
∥F(v)∥ · ∥F(w)∥ ∥v∥ · ∥w∥
Insbesondere gilt für alle i, j ∈ I mit i ̸= j
⟨ei + e j , ei − e j ⟩ ⟨F(ei + e j ), F(ei − e j )⟩
0= = . (∗)
∥ei + e j ∥ · ∥ei − e j ∥ ∥F(ei + e j )∥ · ∥F(ei − e j )∥
Setzt man λi := ∥F(ei )∥ = ∥F(e i )∥
∥ei ∥ , so folgt mit (∗), da (ei )i∈I eine Orthonormal-
basis ist,
0 = ⟨F(ei + e j )), F(ei − e j )⟩ = ∥F(ei ∥2 − ∥F(e j )∥2
= λi2 − λ j2 = (λi + λ j )(λi − λ j ),
womit λi = ±λ j folgt. Da jedoch λi > 0 für alle i ∈ I gilt, folgt λi = λ j für alle
i, j ∈ I.
Nun wird ⟨F(v), F(w)⟩ = λ 2 (v, w) für alle v, w ∈ V gezeigt. Dazu seien
v = ∑i∈I µi ei und w = ∑i∈I νi ei . Dann gilt
⟨F(v), F(w)⟩ = ⟨F(∑ µi ei ), F( ∑ ν j e j )⟩ = ⟨∑ µi F(ei ), ∑ ν j F(e j )⟩
i∈I j∈I i∈I j∈I
= ∑ µi ν j ⟨F(ei ), F(e j )⟩ = ∑ µi ν j λ 2 δij ,
i, j∈I i, j∈I
wobei der erste Schritt für i = j klar ist und für i ̸= j aus der Winkeltreue von F
folgt. Aus der letzten Gleichung ergibt sich damit
⟨F(v), F(w)⟩ = ∑ µi ν j ⟨ei , e j ⟩ = λ 2 ⟨∑ µi ei , ∑ ν j e j ⟩ = λ 2 ⟨v, w⟩.
i, j∈I i∈I j∈I
Somit existiert ein λ ∈ R r {0} mit
⟨F(v), F(w)⟩ = λ 2 · ⟨v, w⟩ und ∥F(v)∥ = |λ | · ∥v∥
für alle v, w ∈ V r {0}. Definieren wir G := 1
λ · F, so sind wir fertig.
3. Der Fall x = 0 oder y = 0 ist klar.
Nehmen wir also an, z = x + iy und z = x − iy mit x, y ∈ Rn r 0 sind linear
abhängig über C, dann existieren λ1 = a1 + ib1 ̸= 0 und λ2 = a2 + ib2 ̸= 0 mit
(a1 + ib1 )(x + iy) + (a2 + ib2 )(x − iy) = 0
⇔ (a1 + a2 )x + (b2 − b1 )y + i ((b1 + b2 )x + (a1 − a2 )y) = 0 . (∗)
Dabei müssen λ1 und λ2 von null verschieden sein, weil C ein Körper ist.
Wir behaupten, dass entweder a1 +a2 ̸= 0 oder a1 −a2 ̸= 0 ist. Wäre beispiels-
weise a1 + a2 = 0 = a1 − a2 , so hätte (∗) die Form
(b2 − b1 )y + i(b1 + b2 )x = 0 .
290 5 Euklidische und unitäre Vektorräume

Wegen der linearen Unabhängigkeit von 1 und i über R folgte aufgrund von
x, y ̸= 0 daraus b2 − b1 = 0 = b1 + b2 und daher λ1 = λ2 = 0 im Widerspruch
zur Annahme. Ebenso gilt b2 − b1 ̸= 0 oder b1 + b2 ̸= 0. Damit aber sind x und y
über R linear abhängig.
Sind andererseits x und y linear abhängig über R, so existieren a, b ∈ R mit
(a, b) ̸= (0, 0), so dass ax + by = 0 gilt. Damit gilt jedoch
(1 ) (1 )
2 (a + b) + i 2 (a − b) (x + iy) + 2 (a − b) + i 2 (a + b) (x − iy) = 0 ,
1 1

und wegen (a, b) ̸= (0, 0) sind nicht alle Koeffizienten gleich null, d.h. z und z
sind linear abhängig.
4. Zunächst prüfen wir, ob A ∈ U(3) gilt, da wir dann das Korollar zu Theorem
5.5.5 anwenden können. Nach diesem Korollar bestehen die Spalten von S aus
einer Basis von Eigenvektoren von A.
Es ist  2 
90 0 0
A · t A = 9012  0 902 0  = E3 = t A · A ,
0 0 902
also A ∈ U(3). Als nächstes bestimmen wir das charakteristische Polynom. Wir
erhalten nach einiger Rechnung
PA (t) = −t 3 + 11
5 t − 5 t + 1 = −(t − 1)(t − 5 t + 1) .
2 11 2 6

Die Eigenwerte sind 1, 35 + 54 i und 35 − 45 i. Wir können uns leicht bestätigen, dass
alle drei Eigenwerte den Betrag 1 haben, wie es nach Bemerkung 5.5.1 auch sein
soll. Die zugehörigen Eigenvektoren können wir wie üblich bestimmen.
 √ √   √ √ 
−√ 4
15 − 15 6 31 √2 7√ 2 3 3 5
A − 1 · E3 =  15 1
√6 −√ 1
5
1
3 3
; 6 2 0 
− 15 2 − 5 3 − 3
7 1 1 0 0 0
mit Kern √ √
Eig (A; 1) = span t (1, − 12 6, − 12 2)
sowie  √ √ 
15 −
− 15 6
2 4 1
(3 ) √5 i 3 √2
A− 5 + 45 i · E3 =  1
5 −√5 i
1
15 √ 6 4 1
3 3

− 15
− 15 3 15
7
2 1
− 45 i
 √ √ 
− 12i √−3 √6
2√ 5 2
;  3i 2 − 2i 0 
0 0 0
mit dem Kern ( √ )
( ) √ √ √
Eig A; 35 + 54 i = span t 15 2 − 35 2i, − 51 3 − 52 3i, 1 .
5.5 Orthogonale und unitäre Endomorphismen 291

Durch komplexe Konjugation erhalten wir schließlich


( ) ( √ √ √ √ )
Eig A; 35 − 54 i = span t 15 2 + 35 2i, − 51 3 + 52 3i, 1 .
Bevor wir diese Eigenvektoren von A als Spalten von S verwenden, müssen wir
sie auf Länge 1 normieren. Das ergibt
 1√ √ √ √ √ 
√ − 101 √30i 30 1 30
1 1 1 1
3 √ 3 30 30 √ + 101 √30i
S =  − 2 √2 − 10 √
1 1
5 − 5 5i − 10 √ 5 + 5 5i  ,
− 16 6 1
6 15 1
6 15
wunschgemäß eine unitäre Matrix. Als Probe bestätigen wir
 
1 0 0
t
S̄ · A · S =  0 35 + 54 i 0 .
0 0 3
5 − 4
5i
Für die Ermittlung der orthogonalen Matrix T spalten wir einen komplexen Ei-
genvektor – wie im ersten Beweis von Theorem 5.5.6 vorgeschlagen – in Real-
und Imaginärteil auf. So kommen wir zu den Vektoren
( √ √ √ ) ( √ √ )
t 1 30, − 1 5, 1 15 und t − 10 1
30, − 15 5, 0 .
30 10 6

Diese normieren wir und können sie dann gemeinsam mit dem normierten Ei-
genvektor zum reellen Eigenwert 1 als Spalten von T übernehmen:
 1√ √ √ 
15 √15 − 5 √15
1 1
3 √3
T =  − 12 √2 − 10 1
√10 − 5 10
1 .
−6 6
1 1
6 30 0
Wir bestätigen, dass es sich bei T um eine orthogonale Matrix handelt und be-
rechnen ( ) ( )
1 0 0 1 0 0
t
T ·A·T = 0 0.6 0.8 = 0 cos α − sin α
0 −0.8 0.6 0 sin α cos α
mit α ≈ −0.927.
5. Ins Matrizenkalkül übertragen bedeutet die Voraussetzung, dass die Spalten
der Matrix Mπ von fπ gerade die kanonische Orthonormalbasis bilden (in von
π abhängiger Reihenfolge). Damit ist Mπ orthogonal, einzige reelle Eigenwerte
können 1 und −1 sein. Beide Zahlen treten auf, wie das Beispiel

(x1 , x2 , x3 , . . . , xn ) 7→ (x2 , x1 , x3 , . . . , xn )
zeigt.
Wir sollten bedenken, dass die Eigenvektoren von fπ sehr viel schwieriger zu
finden sind und z.B. von den Fehlständen der Permutation π abhängen.
292 5 Euklidische und unitäre Vektorräume

6. Die Eigenschaften B1 und B2 von ⟨ , ⟩ sind klar, da ω eine Bilinearform und J


ein Endomorphismus ist. Es ist also nur die Eigenschaft S zu zeigen. Dazu seien
v, w ∈ V , dann gilt
⟨v, w⟩ = ω (v, J(w)) = −ω (J(w), v)
(∗) ( )
= −ω J 2 (w), J(v) = −ω (−w, J(v)) = ⟨w, v⟩ ,
wobei an der Stelle (∗) die Voraussetzung ω (v, w) = ω (J(v), J(w)) für alle
v, w ∈ V benutzt wurde. Die Orthogonalität von J bezüglich ⟨ , ⟩ ist lediglich
eine andere Schreibweise dieser Voraussetzung.
b) Die durch J induzierte C-Vektorraum-Struktur auf V ist nach Aufgabe 3 zu
Abschnitt 5.3 gegeben durch (x + iy) · v = xv + yJ(v).
Aus der Bilinearität von ω und ⟨ , ⟩ folgen unmittelbar die Eigenschaften
s(v + v′ , w) = s(v, w) + s(v′ , w) und s(v, w + w′ ) = s(v, w) + s(v, w′ )
für alle v, v′ , w, w′ ∈ V .
Sind v, w ∈ V und λ = (x + iy) ∈ C, so gilt
s(λ v, w) = s (xv + yJ(v), w) = ⟨xv + yJ(v), w⟩ − iω (xv + yJ(v), w)
= ω (xv + yJ(v), J(w)) − iω (xv + yJ(v), w)
= xω (v, J(w)) + yω (J(v), J(w)) − ixω (v, w)(− iyω (J(v),)w)
= xω (v, J(w)) + yω (v, w) − ixω (v, w) − iyω J 2 (v), J(w)
= xω (v, J(w)) + yω (v, w) − ixω (v, w) + iyω (v, J(w))
= (x + iy) (ω (v, J(w)) − iω (v, w)) = λ · s(v, w)
und
s(v, λ w) = s (v, xw + yJ(w))
= ⟨v,(xw + yJ(w)⟩ − iω (v,
) xw + yJ(w))
= ω v, xJ(w) + yJ 2 (w) − iω (v, xw + yJ(w))
= xω (v, J(w)) − yω (v, w) − ixω (v, w) − iyω (v, J(w))
= (x − iy) (ω (v, J(w)) − iω (v, w)) = λ̄ · s(v, w) .
Ferner folgt
s(v, w) = ω (v,(J(w)) − iω (v,
) w) = −ω (J(w), v) + iω (w, v)
= −ω J 2 (w), J(v) + iω (w, v)
= ω (w, J(v)) + iω (w, v) = s(w, v) .
Schließlich ist s positiv definit, denn ω ist schiefsymmetrisch, d.h. für alle
v ∈ V r 0 gilt ω (v, v) = 0, und daher gilt
s(v, v) = ⟨v, v⟩ − iω (v, v) = ⟨v, v⟩ > 0 ,
da ⟨ , ⟩ positiv definit ist. Damit ist alles gezeigt.
5.6 Selbstadjungierte Endomorphismen∗ 293

Man beachte, dass die durch s definierte hermitesche Form mit der in Abschnitt
5.3.2 definierten Fortsetzung ⟨ , ⟩c des kanonischen Skalarproduktes für den Fall
V = R2n übereinstimmt.
Lösung der Ergänzungsaufgabe
E1. a) Die Eigenschaften (B1) und (B2) folgen aus Re (z + z′ ) = Re (z) + Re (z′ )
für beliebige z, z′ ∈ C sowie aus λ = λ̄ für λ ∈ R, denn s ist sesquilinear. Die
Symmetrie von ⟨ , ⟩ folgt aus Re (z) = Re (z̄) für alle z ∈ C, denn s ist her-
mitesch. Schließlich folgt aus der Tatsache, dass s positiv definit ist, gerade
⟨v, v⟩ = s(v, v) > 0 für alle 0 ̸= v ∈ V , also ist ⟨ , ⟩ positiv definit.
b) Die Argumentation verläuft ähnlich wie unter a). Wir zeigen daher zum Be-
weis der Bilinearität lediglich mit λ ∈ R
ω (v, λ w) = −Im (s(v, λ w)) = −Im (λ · s(v, w))
= λ · (−Im (s(v, w))) = λ · ω (v, w) .
Die Schiefsymmetrie von ω folgt mit Hilfe der Schiefsymmetrie
( ) von s aus
ω (v, w) = −Im (s(v, w)) = −Im s(w, v)
= − (−Im (s(w, v))) = −ω (w, v) .
Da s positiv definit ist, ist ω nicht-entartet.
c) Die Behauptungen folgen aus
s (i · v, i · w) = i · (−i) · s(v, w) = s(v, w)
für alle v, w ∈ V .
d) ist klar nach der Definition von ⟨ , ⟩ und ω .

5.6 Selbstadjungierte Endomorphismen∗


1. Sei m ∈ N minimal mit F m = 0. Nach Theorem 5.6.2 existiert eine Ortho-
normalbasis (e1 , . . . , en ) des Kn aus Eigenvektoren von F. Seien λ1 , . . . , λn die
Eigenwerte von F zu e1 , . . . , en . Dann gilt für i = 1, . . . , n
F m (ei ) = λim ei = 0 ⇒ λim = 0 ⇒ λi = 0 .
Das ist gleichbedeutend mit F(ei ) = 0 für alle i = 1, . . . , n, also F = 0.
2. Sind F und G selbstadjungiert, so gilt für alle v, w ∈ V
⟨F (G(v)) , w⟩ = ⟨G(v), F(w)⟩ = ⟨v, G (F(w))⟩ .
Also ist F ◦ G selbstadjungiert gleichbedeutend mit G ◦ F = F ◦ G für alle
v, w ∈ V .
3. Die Matrix A ist symmetrisch und damit nach Satz 5.6.1 selbstadjungiert, also
gibt es nach Theorem 5.6.2 und dem nachfolgenden Korollar eine orthogonale
294 5 Euklidische und unitäre Vektorräume

Matrix S, so dass t SAS Diagonalgestalt besitzt. Die Spalten von S bilden dabei
eine Orthonormalbasis nach Bemerkung 5.5.2. Genauer bilden die Spalten von
S nach Theorem 5.6.2 eine Orthonormalbasis aus Eigenvektoren von A, und die
Zahlen λ1 , . . . , λn aus dem zugehörigen Korollar sind die Eigenwerte von A. Wir
bestimmen also zunächst eine Basis aus Eigenvektoren von A nach dem Verfah-
ren aus 5.6.3.
1) Zunächst bestimmen wir das charakteristische Polynom von A,
PA (t) = −t(t − 3)2 .
A hat somit die Eigenwerte 0 und 3.
2) Nun bestimmen wir die Eigenräume zu den Eigenwerten; Eig (A; 0) = Ker A
finden wir durch Zeilenumformungen der Matrix
( ) ( )
2 − 0 −1 1 1 0 1
−1 2 − 0 1 ; 0 1 1 ,
1 1 2−0 0 0 0
daraus folgt Eig (A, 0) = R · (1, 1, −1). Für den Eigenraum Eig (A, 3) betrachten
wir ( ) ( )
2 − 3 −1 1 1 1 −1
−1 2 − 3 1 ; 0 0 0 .
1 1 2−3 0 0 0
Es gilt also Eig (A; 3) = R · (1, 1, 2) + R · (1, −1, 0). Sicherlich kann man auch
eine andere Basis dieses Eigenraumes angeben, doch die von uns gewählte hat
den Vorteil, dass sie bereits orthogonal ist und später nur noch normiert werden
muss.
Wie erwartet gilt dim Eig (A; λ ) = µ (PA , λ ) für alle Eigenwerte λ von A, denn
wie zu Anfang der Aufgabe bemerkt, ist A diagonalisierbar.
3) Die Basisvektoren der Eigenräume müssen nun normiert werden. Wir erhalten
√ √ √
e1 = √13 (1, 1, −1) = √16 ( 2, 2, − 2)
e2 = √1 (1, 1, 2)
6 √ √
e3 = √1 (1, −1, 0) = √1 ( 3, − 3, 0) .
2 6

Diese Vektoren bilden die Spalten der Matrix S:


 √ √ 
√2 1 √3
S = √6  √2 1 − 3  .
1

− 2 2 0
5.6 Selbstadjungierte Endomorphismen∗ 295

Man kann leicht nachrechnen, dass wie erwartet t S · S = S · t S = E3 gilt. Als


Endergebnis berechnen wir
( )
0 0 0
t
SAS = 0 3 0 ,
0 0 3
was die Korrektheit unserer Rechnungen bestätigt.
Lösungen der Ergänzungsaufgaben
E1. a) Ist F anti-selbstadjungiert, so gilt für alle v ∈ V
⟨F(v), v⟩ = −⟨v, F(v)⟩ = −⟨F(v), v⟩ ,
also ⟨F(v), v⟩ = 0.
Ist umgekehrt ⟨F(v), v⟩ = 0 für alle v ∈ V , und sind v, w ∈ V gegeben, so gilt
0 = ⟨F(v + w), v + w⟩
= ⟨F(v), v⟩ + ⟨F(w), v⟩ + ⟨F(v), w⟩ + ⟨F(w), w⟩
= ⟨F(w), v⟩ + ⟨F(v), w⟩ ,
also ist ⟨F(v), w⟩ = −⟨v, F(w)⟩.
b) Ist λ ∈ R ein Eigenwert von F und v ein Eigenvektor zu λ , so gilt nach Teil
a)
0 = ⟨F(v), v⟩ = ⟨λ · v, v⟩ = λ ⟨v, v⟩ ,
und da ⟨v, v⟩ = ∥v∥2 ̸= 0 ist, folgt λ = 0.
E2. a) Es sei B = (e1 , . . . , en ) eine Orthonormalbasis von V und F mit
n
F(e j ) = ∑ λi j ei für j = 1, . . . , n
i=1
anti-selbstadjungiert. Dann gilt
n n
λlk = ∑ λik ⟨ei, el ⟩ = ⟨ ∑ λik ei, el ⟩ = ⟨F(ek ), el ⟩ = −⟨ek , F(el )⟩
i=1 i=1
n n
= −⟨ek , ∑ λil ei ⟩ = − ∑ λil ⟨ek , ei ⟩ = −λkl
i=1 i=1
für alle k, l ∈ {1, . . . , n}. Damit ist MB (F) = (λkl ) schiefsymmetrisch.
Für die Rückrichtung genügt es, die Elemente der Basis B zu betrachten, da
F linear und ⟨ , ⟩ eine symmetrische Bilinearform ist. Füür alle k, l ∈ {1, . . . , n}
gilt jedoch
⟨F(ek ), el ⟩ = λkl = −λlk = ⟨ek , F(el )⟩ ,
und daraus folgt, dass F anti-selbstadjungiert ist.
296 5 Euklidische und unitäre Vektorräume

b) Der Beweis verläuft ähnlich zum Beweis von Theorem 5.5.6. Wir übernehmen
daher die Bezeichnungen.
Der Trick liegt in der Komplexifizierung der Abbildung F. Bezüglich einer
Orthonormalbasis A bezeichne A := MA (F). Das charakteristische Polynom
PA (t) zerfällt überer den Körper der komplexen Zahlen in Linearfaktoren. Da
nach Aufgabe E1 b) die Abbildung F nur den Eigenwert 0 besitzt, folgt mit
Hilfe von 1.3.10 in [Fi1].
PA (t) = ±t l · (t − λ1 )(t − λ̄1 ) · . . . · (t − λk )(t − λ̄k ) ,
wobei l + 2k = n = dimV ist und alle λ j ungleich 0 sind. Bezeichnen wir
λ j = α j + iβ j , so ist nach Voraussetzung β j ̸= 0, und es gilt
(t − λ j )(t − λ̄ j ) = t 2 − 2α j t + (α 2j + β j2 ) .
Im Cn existiert eine Orthonormalbasis B aus Eigenvektoren von F. Dies zeigt
man analog zum Induktionsbeweis in der ersten Hälfte des Beweises von Theo-
rem 5.6.2. Da A reell ist, liegen die in B enthaltenen Eigenvektoren v1 , . . . , vl
zum Eigenwert 0 im Rn .
Ist z ∈ Cn ein Eigenvektor zu einem nicht reellen Eigenwert λ , so ist mit der
Begründung wie im Beweis von Theorem 5.5.6 auch z̄ ∈ Cn ein Eigenvektor zum
Eigenwert λ̄ . Wir können daher die übrigen Elemente von B so ordnen:
z1 , . . . , zk zu den Eigenwerten λ1 , . . . , λk ,
z̄1 , . . . , z̄k zu den Eigenwerten λ̄1 , . . . , λ̄l .
Wie im Beweis von Theorem 5.5.6 kann man aus jedem solchen Paar z, z̄ von Ei-
genvektoren zu Eigenwerten λ und λ̄ einen unter A invarianten Untervektorraum
W ⊂ Rn konstruieren, indem man für z = x + iy
W := span (x, y) ⊂ Rn
wählt. Die A-Invarianz von W und die Orthogonalität von x und y zeigt man wie
in 5.5.6, und normieren wir die Basis von W via
√ √
x∗ := 2 · x und y∗ := 2 · y ,
so folgt, da A anti-selbstadjungiert ist,
⟨x∗ , A(x∗ )⟩ = −⟨A(x∗ ), x∗ ⟩ = 0 ,
und daher gilt A(x∗ ) ∈ span (y∗ ), also existiert ein λ ∈ R r 0 mit
A(x∗ ) = λ · y∗ . (∗)
Analog folgt aus
⟨y∗ , A(y∗ )⟩ = −⟨A(y∗ ), y∗ ⟩ = 0 ,
dass A(y∗ ) ∈ span (x∗ ) ist, und damit existiert ein µ ∈ R r 0 mit
A(y∗ ) = µ · x∗ . (∗∗)
5.7 Hauptachsentransformation∗ 297

Unter Benutzung der Tatsache, dass A anti-selbstadjungiert ist, berechnen wir


(∗) (∗∗)
λ = ⟨λ y∗ , y∗ ⟩ = ⟨A(x∗ ), y∗ ⟩ = −⟨x∗ , A(y∗ )⟩ = −⟨x∗ , µ x∗ ⟩ = −µ ,
und aus der Orthonormalität von x∗ und y∗ folgt somit, dass A|W durch die Matrix
( )
0 λ
−λ 0
beschrieben wird.
Nun folgt mit derselben Argumentation wie im Beweis von Theorem 5.5.6 die
Behauptung.

5.7 Hauptachsentransformation∗
1. Die Matrix A zu s ist symmetrisch, also bestimmen wir nach dem Hauptach-
sentransformationssatz aus 5.7.1, Teil 1), eine Orthonormalbasis A aus Eigen-
vektoren von A. Bezüglich dieser Basis hat MA (s) Diagonalgestalt. Ist
( )
3 −2 0
A = −2 2 −2 ,
0 −2 1
so berechnen wir das charakteristische Polynom
PA (t) = −(t − 2)(t − 5)(t + 1) .
Die Eigenwerte von A sind somit 2, 5 und −1. Nach dem üblichen Verfahren
ermitteln wir
( ) ( )
Eig (A; 2) = span (t (2, 1, −2)
) , Eig (A; 5) = span t (2, −2, 1) ,
Eig (A; −1) = span t (1, 2, 2) ,
und die Basis A ist durch die drei Vektoren
w1 := 31 (2, 1, −2) , w2 := 31 (2, −2, 1) und w3 := 31 (1, 2, 2)
gegeben. Nach 5.7.1 ist die zweite Basis gegeben durch B = (w′1 , w′2 , w′3 ), wobei
w′1 := √12 · w1 w′2 := √15 · w2 und w′3 := w3
gilt.
2. a) B1 folgt mit Hilfe der Regeln für die Differentiation (vgl. [Fo1], §15) aus
d( f + g, h) = (( f + g)h)′ (0) = ( f h + gh)′ (0)
= ( f h)′ (0) + (gh)′ (0) = d( f , h) + d(g, h)
und
d(λ f , g) = ((λ f )g)′ (0) = (λ f g)′ (0) = λ ( f g)′ (0) = λ · d( f , g) .
Die Regel S folgt aus der Produktregel und der Kommutativität der reellen Zah-
len, und aus der Gültigkeit von B1 und S folgt B2.
298 5 Euklidische und unitäre Vektorräume

b) Aus
d( f , g) = ( f g)′ (0) = f (0)g′ (0) + f ′ (0)g(0) = 0
folgt
M := { f ∈ D : f (0) = f ′ (0) = 0} ⊂ D0 .
Gilt andererseits d( f , g) = 0 für alle g ∈ D, so gilt für alle g mit g′ (0) ̸= 0
g(0) ′
f (0) = − ′ f (0) .
g (0)
Da der Koeffizient vor dem f ′ (0) mit Hilfe der Abbildungen g = t + r für r ∈ R
jeden reellen Wert annehmen kann, kann die Gleichung nur für
f (0) = f ′ (0) = 0
erfüllt sein. Daraus folgt D0 ⊂ M. D0 besteht also aus allen differenzierbaren
Funktionen, deren Graph durch den Ursprung verläuft und dort die Steigung null
hat.
3. Die Umformung der ersten Matrix lautet
1 2 2 1 0 0
A= 2 1 4 0 1 0 = E3
2 4 4 0 0 1
1 0 0 1 −2 −2
0 −3 0 0 1 0 = S.
0 0 0 0 0 1
Dann ist  
1 0 0
t
SAS =  0 −3 0 .
0 0 0
Es wird jeweils das (−2)-fache der ersten Zeile bzw. Spalte zu der zweiten und
dritten Zeile bzw. zweiten und dritten Spalte addiert. Die Matrix S gibt das Pro-
dukt der Matrizen für die Spaltenumformungen wieder (vgl. 2.7.1).
5.7 Hauptachsentransformation∗ 299

Für die zweite Matrix erhält man

1 0 1 0 1 0 0 0
B= 0 1 1 2 0 1 0 0
1 1 0 0 0 0 1 0
0 2 0 2 0 0 0 1
1 0 0 0 1 0 −1 0
0 1 1 2 0 1 0 0
0 1 −1 0 0 0 1 0
0 2 0 2 0 0 0 1
1 0 0 0 1 0 −1 0
0 1 0 2 0 1 −1 0
0 0 −2 −2 0 0 1 0
0 2 −2 2 0 0 0 1
1 0 0 0 1 0 −1 1
0 1 0 0 0 1 −1 −1 = T
0 0 −2 0 0 0 1 −1
0 0 0 0 0 0 0 1

Die Umformungen und Bezeichnungen erklären sich dabei von selbst. Wir emp-
fehlen, zur Überprüfung der Rechnung immer eine Probe durchzuführen, in die-
sem Fall sollte man  
1 0 0 0
t  0 1 0 0 
TAT = 
0 0 −2 0 
0 0 0 0
nachrechnen.
4. A ist negativ definit genau dann, wenn t xAx =< 0 für alle x ∈ Rn . Dann gilt
jedoch für alle x
0 < −(t xAx) = t x(−A)x ,
d.h. t xAx < 0 ⇔ t x(−A)x > 0, daraus folgt die Behauptung.
5. Nach 5.7.7 sind die Matrizen genau dann positiv (negativ) definit, wenn alle
Eigenwerte positiv (negativ) sind. Dies kann man an den charakteristischen Po-
lynomen erkennen, wobei man (siehe A2 ) die Nullstellen unter Umständen nicht
einmal genau kennen muss. Für
( )
1 2 −2
A1 = 2 2 0
−2 0 −4
300 5 Euklidische und unitäre Vektorräume

ergibt sich
PA1 (t) = −t(t 2 + t − 18) .

Da ein Eigenwert 0 ist, kann A1 weder positiv noch negativ definit sein.
Das charakteristische Polynom der zweiten Matrix A2 lautet
PA2 (t) = −(t 3 + 9t 2 + 16t + 2) .

Man kann erkennen, dass A2 negativ definit ist, ohne die Nullstellen des charak-
teristischen Polynoms auszurechnen (das ist nämlich gar nicht so einfach). Da
alle Koeffizienten dasselbe Vorzeichen haben, kann PA2 (t) nur negative Nullstel-
len haben.
Für die dritte Matrix A3 lautet das charakteristische Polynom
PA3 (t) = −(t 3 − 25t 2 + 75t − 27)
√ √
= −(t − 3)(t − 11 + 112)(t − 11 − 112) ,

und alle Eigenwerte sind größer als null. A3 ist positiv definit. Dass alle Eigen-
werte positiv sind, kann man auch schon daran erkennen, dass die Koeffizienten
vor ungeraden Potenzen von t negativ und vor geraden Potenzen von t positiv
sind; diese Argumentation erspart die konkrete Berechnung der Eigenwerte.
6. C0 ist ein Kegel, denn für v ∈ C0 und beliebiges λ ∈ R gilt
s(λ v, λ v) = λ 2 · s(v, v) = λ 2 · 0 = 0.

Für v ∈ C+ gilt s(v, v) > 0. Wegen λ 2 > 0 für alle λ ∈ R r {0} folgt
s(λ v, λ v) = λ 2 · s(v, v) > 0.

Mit λ = 0 folgt
s(λ v, λ v) = 0 · s(v, v) = 0.

Damit ist C+ ein Kegel.


Ähnlich kann die Behauptung
( für)C− gezeigt werden.
1 0
Ist s durch die Matrix gegeben, dann gilt
0 −1
C0 = {v = t(v1 , v2 ) ∈ R2 : v21 = v22 }
= {v = t(v1 , v2 ) ∈ R2 : v1 = v2 } ∪ {v = t(v1 , v2 ) ∈ R2 : v1 = −v2 }.

Dies ist in Abbildung 5.4 dargestellt.


5.7 Hauptachsentransformation∗ 301

6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.4
Weiter ist
C+ = {vR2 : v21 > v22 } ∪ {0}.
Dies ist in Abbildung 5.5 zu sehen.
6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.5
Zusätzlich erhält man
C− = {vR2 : v21 < v22 } ∪ {0}.
Kegel werden ebenfalls in Aufgabe 3 zu Abschnitt 6.3 betrachtet.
6
@
@
@
@
@
@ -
@
@
@
@
@@
Bild 5.6
302 5 Euklidische und unitäre Vektorräume

7. Nach Teil 1) der Hauptachsentransformation symmetrischer Matrizen existiert


eine Orthonormalbasis B = (w1 , . . . , wn ) des Rn mit
 
λ1 0
MB (s) =  ..
.  und s(wi , w j ) = λi · δi j .
0 λn
Damit gilt für alle Eigenwerte λi mit
} {
λi > 0 s(v, v) > 0,
und alle v ∈ Eig (A; λi ) :
λi < 0 s(v, v) < 0,
λi = 0 und alle v ∈ Ker (A) : s(v, w) = 0 ∀w ∈ V.
Aufgrund der Definition
V+ = {v ∈ V : s(v, v) > 0},
V− = {v ∈ V : s(v, v) < 0} und
V0 = {v ∈ V : s(v, w) = 0 ∀w ∈ V }
folgt damit die Behauptung.
Lösungen der Ergänzungsaufgaben
E1. Der Fall V = (0) als Induktionsanfang ist trivial. Ist V ̸= (0), so
wähle ein 0 ̸= v1 ∈ V . Da ω nicht-entartet ist, existiert ein w1 ∈ V mit
ω (v1 , w1 ) = 1. Es ist W := span (v1 , w1 ) ⊂ V ein zweidimensionaler symplek-
tischer Unterraum von V , d.h. ω |W ×W ist (nach Konstruktion) nicht-entartet.
Wir definieren das symplektische Komplement
W ⊥ := {v ∈ V : ω (v, w) = 0 für alle w ∈ W } .
Da ω nicht-entartet ist, ist auch W ⊥ symplektischer Unterraum von V . Wir be-
haupten V = W ⊕W ⊥ .
Um V = W +W ⊥ zu sehen, wählen wir ein v ∈ V und definieren
v′ := ω (v, w1 ) · v1 − ω (v, v1 ) · w1 .
Dann ist v = v′ + (v − v′ ), und es bleibt (v − v′ ) ∈ W ⊥ zu zeigen. Ist
w = λ v1 + µ w1 ∈ W , so folgt
ω (v − v′ , w) = ω (v, w) − ω (v, w1 )ω (v1 , µ w1 ) + ω (v, v1 )ω (w1 , λ v1 )
= ω (v, w) − ω (v, λ v1 ) − ω (v, µ w1 ) = 0 .
Nach Konstruktion ist W ∩W ⊥ = (0), also gilt V = W ⊕W ⊥ .
Auf W ⊥ können wir die Induktionsvoraussetzung anwenden, es gibt also eine
Darboux-Basis B ′ von W ⊥ , und B := (v1 , w1 ) ∪ B ′ ist damit eine Darboux-
Basis von V .
5.7 Hauptachsentransformation∗ 303

E2. a) Nach der Definition der Matrizenmultiplikation gilt für A = (ai j )16i, j6n
 n 
∑k=1 a1k ak1 · · · ∑nk=1 a1k akn
A =
2 .
.. .
.. .
∑nk=1 ank ak1 · · · ∑nk=1 ank akn
Wegen Ā = tA gilt
( )2 ( )2
aik = āki ⇒ aik · aki = aik · āik = aRik + aIik . ~
Ferner gilt aufgrund von Ā = tA auch aii ∈ R für alle i. Für die Elemente in der
Diagonalen an der i-ten Stelle ergibt sich
n n ( ) ( )
∑ aik · aki = ∑ (aRik )2 + (aIik )2 = a2ii + ∑ (aRik )2 + (aIik )2 . ~~
k=1 k=1 k̸=i
Da es sich um eine hermitesche Matrix A handelt, folgt aus ~~
n ( ) ( )
∑ (aRik )2 + (aIik )2 = 2 ∑ (aRik )2 + (aIik )2 ,
k̸=i i<k
also n ( R 2 )
∑ aik aki = a2ii + 2 ∑ (aik ) + (aIik )2 .
k=1 i<k
Damit folgt die Behauptung für den ersten Summanden, und die Behauptungen
für den zweiten und dritten Sumanden sind klar.
b) Für die Konstante c gilt
1
c= ( ( )) .
exp −Sp Q(A) dA
Kapitel 6
Dualität∗

6.1 Dualräume
∗ ∗
B (id ) = T B und M B (id∗ ) = T B . Aus Satz
1. Nach Bemerkung 2.6.3 gilt MA V A A∗ V A∗
6.1.4 folgt damit

( ) ( )−1
B∗
TAB∗ = MA ∗
∗ (idV ) =
t
MBA
(idV ) = t TBA = t TAB .

2. Nach der Konvention ( )∗ in 6.1.6 bestimmen wir zunächst die Menge aller Vekto-
ren (x1 , . . . , x5 ) ∈ R5 , für die
   
2 0
 3   5 
   
(x1 , . . . , x5 ) ·  1  = 0 , (x1 , . . . , x5 ) ·  1  = 0
 4   −1 
3 3
und  
4
 0 
 
(x1 , . . . , x5 ) ·  1  = 0
 1 
−2
gilt. Dies sind nach dem Transponieren genau die Vektoren im R5 , die im Kern
der durch die Matrix
( )
2 3 1 4 3
A= 0 5 1 −1 3
4 0 1 1 −2
beschriebenen Abbildung liegen. Es genügt also, eine Basis von Ker A zu bestim-
men und dann zu transponieren. Dazu formen wir A zunächst um:
( )
2 0 0 21 10
; 0 1 0 8 5 .
0 0 1 −41 −22
Daraus bestimmen wir Basisvektoren von Ker A und transponieren sie:
u1 = (−5, −5, 22, 0, 1) , u2 = (− 21
2 , −8, 41, 1, 0) .
Es folgt U 0 = span (u1 , u2 ).

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4_14
6.1 Dualräume 305

3. Mit Hilfe von Satz 6.1.4 erhalten wir das kommutative Diagramm

Hom K (V,W ) - Hom K (W ∗ ,V ∗ )

F - F∗
A B ∗
MB ? ?
MA ∗

A - tA
? ?
M(m × n; K) - M(n × m; K) .

A , M B und die Transposition sind Isomorphismen, also ist
Die Abbildungen MB A∗
die Abbildung F 7→ F ∗ ebenfalls ein Isomorphismus.
4. Wir zeigen beide Inklusionen. Für ψ ∈ F ∗ (U 0 ) existiert ein φ ∈ U 0 mit
( )0
ψ = φ ◦ F. Aus φ |U = 0 folgt ψ |F −1 (U) = 0, daher gilt ψ ∈ F −1 (U) .
( )0
Ist andererseits ψ ∈ F −1 (U) , so gilt ψ |F −1 (U) = 0. Wir betrachten die Zer-
legungen
V = F −1 (U) ⊕ Ṽ und W = U ⊕ W̃ mit W̃ = F(Ṽ ) ⊕W ′
für geeignetes W ′ ⊂ W . Es gilt F(Ṽ ) ⊂ W̃ und dimF(Ṽ ) 6 dimW̃ . Wegen
Ker F ⊂ F −1 (U) ist F|Ṽ injektiv. Es sei (ṽ1 , . . . , ṽk ) eine Basis von Ṽ und
(w̃1 , . . . , w̃k ) eine Basis von F(Ṽ ) mit F(ṽi ) = w̃i für i = 1, . . . , k. Die Basis von
F(Ṽ ) ergänzen wir zu einer Basis (w̃1 , . . . , w̃k , w1 , . . . , wm ) von W̃ . Nach 2.4.1
gibt es genau ein lineares φ ∈ Hom (W, K) mit
φ (w̃i ) = ψ (ṽi ) für i = 1, . . . , k und
φ (w j ) = 0 für j = 1, . . . , m sowie φ |U = 0 .
Daraus folgt ψ = φ ◦ F, also ψ ∈ F ∗ (U 0 ).
5. a) ⊃“: Für φ ∈ W1◦ ∩W2◦ gilt φ (w1 ) = 0 für alle w1 ∈ W1 und φ (w2 ) = 0 für

alle w2 ∈ W2 . Hiermit folgt
φ (w1 + w2 ) = φ (w1 ) + φ (w2 ) = 0 + 0 = 0
für alle w1 ∈ W1 und alle w2 ∈ W2 , und damit gilt φ ∈ (W1 +W2 )◦ .
⊂“: Sei nun φ ∈ (W1 + W2 )◦ und w1 ∈ W1 beliebig. Wegen 0 ∈ W2 gilt

φ (w1 ) = φ (w1 + 0) ∈ φ (W1 + W2 ) = 0. Analog zeigt man φ (w2 ) = 0 für alle
w2 ∈ W2 . Damit gilt φ ∈ W1◦ und φ ∈ W2◦ .
b) ⊂“: Ist φ ∈ (W1 ∩ W2 )◦ , so folgt φ (w) = 0 für alle w ∈ W1 ∩ W2 . Definiert

man φ1 , φ2 ∈ W1◦ +W2◦ mit
{
0 für v ∈ W1 ,
φ1 (v) :=
φ (v) für v ∈ V rW1
306 6 Dualität∗

und
φ2 (v) := φ (v) − φ1 (v) für alle v ∈ V,
so gilt φ1 ∈ W1◦ und φ2 ∈ W2◦ sowie φ = φ1 + φ2 .
⊃“: Ist φ ∈ W1◦ +W2◦ , so gilt φ = φ1 + φ2 mit φ1 ∈ W1◦ und φ2 ∈ W2◦ . Hieraus

folgt φ1 (w1 ) = 0 für alle w1 ∈ W1 und φ2 (w2 ) = 0 für alle w2 ∈ W2 , und damit
ergibt sich für alle w ∈ W1 ∩W2
φ (w) = φ1 (w) + φ2 (w) = 0 + 0 = 0,
also gilt φ ∈ (W1 ∩W2 )◦ .

6.2 Dualität und Skalarprodukte


1. In dem kommutativen Diagramm
F ad
V  W

Φ Ψ
? ?

V∗ F W∗
gilt für die Isomorphismen Ψ und Φ nach Satz 6.2.3
( ) ( )0
Ψ(U ⊥ ) = U 0 und Φ F −1 (U)⊥ = F −1 (U) .
Daher folgt die Behauptung aus Aufgabe 4 zu 6.1.
2. Die Aussage folgt aus Aufgabe 1.
Die Umkehrung gilt nicht, denn für eine anti-selbstadjungierte Abbildung F
(vgl. die Ergänzungsaufgaben zu 5.6) folgt aus Aufgabe 1
( ) ( )⊥
−F U ⊥ = F −1 (U) .
( )
Da F U ⊥ ein Untervektorraum von V ist, gilt
( ) ( ) ( )⊥
F U ⊥ = −F U ⊥ = F −1 (U)
für jede anti-selbstadjungierte Abbildung F.
3. Alles folgt aus Satz 6.2.5, Teil 3). Die Bijektivität ist unmittelbar klar, da
( ad )ad
F = F. Ferner gilt für eine Orthonormalbasis B von V
MB (F1ad + F2ad ) = t (MB (F1 + F2 )) = t MB (F1 ) + t MB (F2 )
= MB (F1ad ) + MB (F2ad )
sowie
MB (λ F ad ) = t MB (λ F) = λ̄ · t MB (F)) = λ̄ · MB (F ad ) .
6.2 Dualität und Skalarprodukte 307

4. A ist normal, da
A · t Ā = A · (−A) = (−A) · A = t Ā · A .
Ist v Eigenvektor zum Eigenwert λ , so gilt A · v = λ · v. Andererseits gilt
t v̄ · t Ā = λ̄ · t v̄,
und damit folgt
( )
λ̄ · t v̄ · v = t v̄ · t Ā · v = t v̄(−A · v) = t v̄(−λ v) = −λ · t v̄ · v ,
also λ̄ = −λ . Das jedoch ist gleichbedeutend mit λ ∈ iR.
5. Die Behauptung ist anschaulich sofort klar, wie z.B. Bild 6.3 in [Fi1] zeigt.
Auch der Beweis birgt keinerlei Schwierigkeiten.
Sind L und L′ windschief, so sind notwendigerweise w und w′ linear un-
abhängig. Wäre x ∈ span (w, w′ ), so existierten λ1 , λ2 ∈ R mit
v′ − v = x = λ1 w + λ2 w′ .
Daraus würde jedoch v′ − λ2 w′ = v + λ1 w folgen, d.h. L und L′ hätten einen
Schnittpunkt.
Sind umgekehrt w und w′ linear unabhängig, so sind L und L′ nicht parallel.
Hätten sie einen Schnittpunkt, so existierten λ1 , λ2 ∈ R mit
v + λ1 w = v′ + λ2 w′ ,
und daraus folgte x = v′ − v = λ1 w − λ2 w′ , d.h. x, w, w′ wären linear abhängig.
6. a) Es gilt
δ (λ , λ ′ ) = ∥v′ + λ ′ w′ − v − λ w∥2
( )
= λ 2 − 2⟨w, w′ ⟩λ λ ′ + λ ′ + 2 ⟨v, w⟩ − ⟨v′ , w⟩ λ
2
( ′ ′ )
+2 ⟨v , w ⟩ − ⟨v, w′ ⟩ λ ′ + ∥v∥2 + ∥v′ ∥2 − 2⟨v, v′ ⟩ ,
d.h. δ ist ein quadratisches Polynom in den Variablen λ , λ ′ . Auf δ können wir
daher die Theorie zur Bestimmung lokaler Extrema von Funktionen mehrerer
Variablen anwenden (vgl. [Fo2], §7, Satz 4), nach der δ ein lokales Minimum an
der Stelle (λ , λ ′ ) besitzt, falls grad δ (λ , λ ′ ) = 0 und (Hess δ )(λ , λ ′ ) eine positiv-
definite Matrix ist, wobei grad den Gradienten und Hess die Hesse-Matrix von
δ bezeichnen (vgl. auch Aufgabe 9 zu 2.5, wobei grad mit der Jacobi-Matrix für
m = 1 und n = 2 übereinstimmt). Wir bestimmen daher die Ableitungen erster
und zweiter Ordnung von δ :
∂δ ( )
(λ , λ ′ ) = 2λ − 2⟨w, w′ ⟩λ ′ + 2 ⟨v, w⟩ − ⟨v′ , w⟩ ,
∂λ
∂δ ( )
(λ , λ ′ ) = 2λ ′ − 2⟨w, w′ ⟩λ + 2 ⟨v′ , w′ ⟩ − ⟨v, w′ ⟩ ,
∂λ′
∂ 2δ ∂ 2δ ∂ 2δ ∂ 2δ
(λ , λ ′ ) = 2 = (λ , λ ′ ) , ′
(λ , λ ′ ) = −2⟨w, w′ ⟩ = (λ , λ ′ ) .
∂λ 2
∂λ ′ 2 ∂λ∂λ ∂ λ ′∂ λ
308 6 Dualität∗

Damit gilt zunächst ( )


2 −2⟨w, w′ ⟩
det(Hess δ )(λ , λ ′ ) = det = 4 − 4⟨w, w′ ⟩2 .
−2⟨w, w′ ⟩ 2
Da die Vektoren w und w′ normiert und linear unabhängig sind, folgt nach 5.1.4
−1 < ⟨w, w′ ⟩ < 1 , d.h. 0 6 ⟨w, w′ ⟩2 < 1 ,
und daher
det(Hess δ )(λ , λ ′ ) > 0
für alle(λ , λ ′ )
∈ R2 .
Andererseits ist auch die Determinante des einreihigen
Hauptminors A1 wegen det A1 = 2 > 0 positiv, und nach dem Hauptminoren-
Kriterium in 5.7.7 ist damit Hess δ positiv definit. Also ist ein lokales Extremum
in jedem Fall ein Minimum.
Andererseits gilt ( )
∂δ ∂δ
grad δ (λ , λ ′ ) = (λ , λ ′ ), (λ , λ ′
) = (0, 0)
∂λ ∂λ′
genau dann, wenn
λ = ⟨w, w′ ⟩λ ′ + ⟨v′ , w⟩ − ⟨v, w⟩ und (∗)
λ ′ = ⟨w, w′ ⟩λ + ⟨v, w′ ⟩ − ⟨v′ , w′ ⟩ .
Bezeichnen wir
a := ⟨w, w′ ⟩ , b := ⟨v′ , w⟩ − ⟨v, w⟩ , c := ⟨v, w′ ⟩ − ⟨v′ , w′ ⟩ ,
so lautet die Lösung von (∗)
ac + b ab + c
λ= und λ ′ = .
1 − a2 1 − a2
Es gibt also ein eindeutig bestimmtes lokales Minimum. Da für λ → ∞ oder
λ ′ → ∞ auch δ (λ , λ ′ ) → ∞ gilt, ist das lokale Minimum auch das globale Mini-
mum.
Aufgrund der Monotonie der Wurzelfunktion ist ∥v′ + λ ′ w′ − v − λ w∥2 genau
dann minimal, wenn ∥v′ + λ ′ w′ − v − λ w∥ minimal ist. Damit ist durch das glo-
bale Minimum von δ der Abstand d(L, L′ ) bestimmt.
b) Leider ist die Aufgabenstellung in der zehnten Auflage der Linearen Alge-
bra falsch; wer sich an dieser versucht hat, wird nicht besonders weit gekommen
sein. Die richtige Aufgabenstellung befindet sich im Aufgabenteil sowie ab der
elften Auflage der Linearen Algebra.
Ersetzen wir in der Gleichung für δ (λ , λ ′ ) die Variablen λ und λ ′ durch die
in der Aufgabenstellung gegebenen Formeln, so erhalten wir nach einer etwas
längeren Rechnung
−ab + 2c ′
δ (λ , λ ′ ) = µ 2 + b µ + µ ′ + √
2
µ +d.
4 − a2
6.3 Tensorprodukte∗ 309

Mit dem üblichen Verfahren der quadratischen Ergänzung (vgl. [Scha], §3) auf
beide Unbekannte angewandt ergibt sich daraus

( ) ( ( ) )
′ b2 ′2 −ab + 2c ′ −ab + 2c 2
δ (λ , λ ) = µ + bµ +
2
+ µ + √ µ + √
4 4 − a2 2 4 − a2
( ) 2
b 2 −ab + 2c
− − √ +d.
4 2 4 − a2

Setzen wir
b −ab + 2c
e := − , f := √ , g := d − e2 − f 2 ,
2 2 4 − a2

so hat δ (λ , λ ′ ) die gewünschte Form. Der Rest der Aufgabe ist klar, da Quadrate
von reellen Zahlen stets größer oder gleich 0 sind, und für µ = e sowie µ ′ = f
das Minimum erreicht wird.
Beim Vergleich von a) und b) stellen wir fest, dass die Lösung in Teil b) deutlich
kürzer ist. Sie ist jedoch nur im quadratischen Fall möglich, während die Lösung
von Teil a) unter allgemeineren Bedingungen Gültigkeit besitzt.
Lösungen der Ergänzungsaufgaben
E1. Wegen F ad = −F gilt
F ◦ F ad = F ◦ (−F) = (−F) ◦ F = F ad ◦ F .

E2. Die Lösung verläuft analog zur Lösung der Aufgabe E2 a) in Abschnitt 5.6.

6.3 Tensorprodukte∗
1. a) (L, +) ist sicherlich eine abelsche Gruppe, das zeigt V1. Wegen K ⊂ L gilt
k · l ∈ L für alle k ∈ K und alle l ∈ L, und da K ⊂ L ein Körper ist, folgt 1K = 1L .
Die Eigenschaften V2 folgen somit aus den Körpereigenschaften von L.
b) Nach Teil a) ist L ein K-Vektorraum. Daher folgt aus Theorem 6.3.3 die Exis-
tenz des K-Vektorraumes L ⊗K V , d.h. L ⊗K V ist bezüglich der Addition eine
abelsche Gruppe. Es bleibt V2 zu zeigen.
Es seien λ , µ ∈ L und v, v′ ∈ L ⊗K V . Wir können annehmen, dass
n n
v = ∑ λ i ⊗ vi und v′ = ∑ µ i ⊗ vi .
i=1 i=1
310 6 Dualität∗

Damit folgt
n n
(λ + µ ) · v = (λ + µ ) ∑ λi ⊗ vi = ∑ (λ + µ )λi ⊗ vi
i=1 i=1
n n
(∗)
= ∑ (λ λi + µλi) ⊗ vi = ∑ (λ λi ⊗ vi + µλi ⊗ vi)
i=1 i=1
n n n n
= ∑ λ λi ⊗ vi + ∑ µλi ⊗ vi = λ ∑ λi ⊗ vi + µ ∑ λi ⊗ vi
i=1 i=1 i=1 i=1
= λ ·v+ µ ·v.
Dabei wurde bei (∗) eine Rechenregel für Tensoren aus 6.3.3 verwendet.
Außerdem gilt
( )
n n
λ · (v + v′ ) = λ· ∑ λi ⊗ vi + ∑ µi ⊗ vi
(i=1 i=1
)
n
(∗)
= λ· ∑ (λi + µi) ⊗ vi
i=1
n n
= ∑ λ · (λ i + µ i ) ⊗ v i = ∑ (λ λ i + λ µ i ) ⊗ v i
i=1 i=1
n n
(∗)
= ∑ λ λ i ⊗ vi + ∑ λ µ i ⊗ vi
i=1 i=1
n n
= λ · ∑ λ i ⊗ vi + λ · ∑ µ i ⊗ vi = λ · v + λ · v′ ,
i=1 i=1
wobei bei (∗) die Rechenregeln für Tensoren aus 6.3.3 verwendet wurden.
Die beiden restlichen Regeln aus V2 sind unmittelbar einzusehen.
c) Es ist klar, dass die Familie (1 ⊗ vi )i∈I ein Erzeugendensystem ist.
Um ihre lineare Unabhängigkeit zu zeigen, sei (µ j ) j∈J eine Basis des K-Vek-
torraums L. Gilt
∑ λi(1 ⊗ vi) = 0
i
mit λi ∈ L, wobei die Summe wie üblich endlich ist, so besitzt jedes der λi eine
eindeutige endliche Darstellung
λi = ∑ κi j · µ j mit κi j ∈ K .
j
Damit folgt
0 = ∑ λi (1 ⊗ vi ) = ∑ κi j · µ j (1 ⊗ vi ) = ∑ κi j (µ j ⊗ vi ) .
i i, j i, j
6.3 Tensorprodukte∗ 311

Da nach dem Beweis von Theorem 6.3.3 die (µ j ⊗ vi )( j,i)∈J×I eine Basis des K-
Vektorraumes L ⊗V sind, folgt κi j = 0 für alle i, j und damit auch λi = 0 für alle
i; also ist die Familie (1 ⊗ vi )i∈I linear unabhängig.
d) φ definiert nach Teil c) und Satz 2.4.1 in eindeutiger Weise eine lineare Ab-
bildung.
Nach Teil c) ist für den Spezialfall L = K für eine Basis (vi )i∈I von V die
Familie (1 ⊗ vi )i∈I eine Basis von K ⊗K V . Daher ist φ ein Isomorphismus.
2. a) Zum Beweis der ersten Behauptung bemerken wir, dass Abb (V × W,U)
ein Vektorraum ist, und behaupten, dass BilK (V,W ;U) ⊂ Abb (V × W,U) ein
Untervektorraum ist. Dazu sind die Eigenschaften UV1, UV2 und UV3 aus 1.4.2
zu zeigen, die durch eine kurze Rechnung zu verifizieren sind.
Bevor wir beweisen, dass die Abbildung
φ : BilK (V,W ;U) → HomK (V ⊗W,U) , ξ 7→ ξ⊗ ,
ein Isomorphismus ist, müssen wir zunächst ihre Wohldefiniertheit zeigen. Die-
se folgt aus Theorem 6.3.3, nach dem die Abbildung ξ⊗ zu einer Abbildung ξ
eindeutig bestimmt ist. Es ist jedoch zu beachten, dass dies keineswegs selbstver-
ständlich ist, da der Raum V ⊗W nach Konstruktion ein Raum von Restklassen
ist und man daher die Invarianz von Rechenoperationen auf den einzelnen Rest-
klassen zeigen muss.
Wir zeigen nun die Linearität von φ . Dazu seien ξ , ξ ′ ∈ BilK (V,W ;U) und ξ⊗
bzw. ξ⊗′ ihre Bilder unter φ , d.h. ξ = ξ⊗ ◦ η und ξ ′ = ξ⊗′ ◦ η . Das Diagramm
V ×W

η @ ξ +ξ′
@
? R
@
α-
V ⊗W U
kommutiert mit α = ξ⊗ + ξ⊗′ sowie mit α = (ξ + ξ ′ )⊗ . Aus der Eindeutigkeit
der Abbildung α (siehe Theorem 6.3.3) folgt
(ξ + ξ ′ )⊗ = ξ⊗ + ξ⊗′ , d.h. φ (ξ + ξ ′ ) = φ (ξ ) + φ (ξ ′ ) .
Ebenso gilt φ (λ ξ ) = λ φ (ξ ) für alle ξ ∈ BilK (V,W ;U) und alle λ ∈ K. Dies
zeigt die Linearität von φ .
Ist φ (ξ ) = ξ⊗ = 0, so ist bereits ξ = 0 ◦ η = 0, also ist φ injektiv.
Für ψ ∈ Hom K (V ⊗ W,U) definieren wir ξ := ψ ◦ η ; dann ist ξ bilinear, da
η bilinear und ψ linear ist, und es gilt ψ = ξ⊗ aufgrund der Eindeutigkeit von
ξ⊗ ; dies zeigt die Surjektivität von φ .
Die Behauptung in Teil b) zeigt man analog, wobei V ∗ ⊗ V ∗ ∼ = (V ⊗ V )∗ aus
Satz 6.3.5 benutzt wird.
312 6 Dualität∗

3. a) Es sei u ∈ Q. Dann existiert ein (v, w) ∈ V × W mit u = v ⊗ w. Aus der


Bilinearität von η folgt
λ · u = λ · (v ⊗ w) = |{z}
λ v ⊗w ∈ Q ;
∈V
also ist Q ein Kegel.
Die Bezeichnung Kegel bedeutet geometrisch, dass es sich um eine Vereini-
gung von Geraden durch den Ursprung handelt, siehe auch Bild 6.1.
z

Bild 6.1

b)∗ Wir benutzen die kanonischen Basen (e1 , . . . , em ) von K m und (e′1 , . . . , e′n ) von
K n sowie die Basis ei ⊗ e′j , 1 6 i 6 m, 1 6 j 6 n von K m ⊗ K n . Die kanonische
Basis von K m·n bezeichnen wir mit ei j , sie wird mit meist in lexikographischer
Ordnung geschrieben, d.h.
(e11 , . . . , e1n , e21 , . . . , e2n , . . . , em1 , . . . , emn ) .
Identifizieren wir K m ⊗ K n = K m·n , so wird η gegeben durch
K m × K n → K m·n , (ei , e′j ) 7→ ei j , d.h.
((x1 , . . . , xm ), (y1 , . . . , yn )) 7→ (x1 y1 , . . . , x1 yn , . . . , xm y1 , . . . , xm yn ) .
Für m = 0 oder n = 0 ist Q = 0, für m = 1 oder n = 1 ist η surjektiv, also können
wir m > 2 und n > 2 voraussetzen.
Der einfachste Fall ist m = n = 2, und wir behaupten
Q = {z = (z11 , z12 , z21 , z22 ) ∈ K 4 : z11 z22 − z12 z21 = 0} =: Q′ ,
d.h. Q ist eine Quadrik (siehe [Fi3], Abschnitt 1.4.1).
Die Inklusion Q ⊂ Q′ ist offensichtlich, denn
z11 z22 − z12 z21 = x1 y1 x2 y2 − x1 y2 x2 y1 = 0 .
Sei umgekehrt z = (z11 , z12 , z21 , z22 ) ∈ Q′ . Wegen 0 ∈ Q genügt es, den Fall z ̸= 0
zu betrachten. Ist z11 ̸= 0, so erhalten wir ein Urbild durch
z12
x1 := z11 , x2 := z21 , y1 := 1 , y2 := ,
z11
6.3 Tensorprodukte∗ 313

denn dann ist


x1 · y1 = z11 , x1 · y2 = z12 , x2 · y1 = z21 , x2 · y2 = z22 .
Ist ein anderes zi j ̸= 0, so verläuft die Rechnung analog.
Im allgemeinen Fall behaupten wir
{
Q = (z11 , . . . , zmn ) ∈ K m·n : zi j zkl − zil zk j = 0 }
mit i, k ∈ {1, . . . , m} und j, l ∈ {1, . . . , n} =: Q .
Im Gegensatz zu m = n = 2 hat man nicht nur eine, sondern mehrere quadratische
Gleichungen, und zwischen ihnen bestehen Abhängigkeiten; z. B. ist
z12 z34 − z14 z32 = 0 ⇔ z14 z32 − z12 z34 = 0 .
Es schadet jedoch nichts, mehr Gleichungen zu wählen als benötigt, insbesonde-
re wenn dadurch die Darstellung leichter und schöner wird.
Es sei z = (z11 , . . . , zmn ) ∈ Q. Dann existieren x = (x1 , . . . , xm ) ∈ K m und
y = (y1 , . . . , yn ) ∈ K n mit
z = η (x, y) = (x1 y1 , x1 y2 , . . . , xm yn−1 , xm yn )
= (z11 , z12 , . . . , zm,n−1 , zmn ) ,
woraus für alle i, k ∈ {1, . . . , m} und alle j, l ∈ {1, . . . , n} folgt
zi j zkl − zil zk j = xi y j xk yl − xi yl xk y j = 0 , also z ∈ Q′ .
Bisher lief der allgemeine Fall völlig analog zum Fall m = n = 2. Auch die In-
klusion Q′ ⊂ Q zeigen wir ähnlich wie oben. Dazu sei z ∈ Q′ . Falls z = 0, so ist
z = η (0, 0). Ansonsten sei wie oben zunächst z11 ̸= 0. Die anderen Fälle zeigt
man analog. Wir behaupten, dass
( )
z12 z1n
z = η (z11 , . . . , zm1 ), (1, , . . . , ) .
z z
| {z } | 11 {z 11 }
x y
Um dies zu beweisen, rechnen wir
z1 j
x1 · y j = z11 · z11 = z1 j für alle j ∈ {2, . . . , n} ,
xi · y1 = zi1 · 1 = zi1 für alle i ∈ {1, . . . , n} ,
und für alle i, j ̸= 1
z1 j
xi · y j = zi1 · = zi j .
z11
Damit ist z ∈ Q.
Die hier aus dem Tensorprodukt erhaltene Abbildung η ergibt in der algebrai-
schen Geometrie die sogenannte Segre-Abbildung, die jedoch als Abbildung
zwischen projektiven Räumen definiert wird (vgl. [Ha], Example 2.11ff).
314 6 Dualität∗

c) Wegen η (v, 0) = v ⊗ 0 = 0 für alle v ∈ V und η (0, w) = 0 ⊗ w = 0 für alle


w ∈ W kann η für dimV > 0 oder dimW > 0 nicht injektiv sein. Also ist η nur
für die trivialen Räume V = W = 0 injektiv.
Zur Surjektivität bemerken wir zunächst, dass zwar immer
span Im η = V ⊗W
gilt, aber im Allgemeinen nicht Im η = V ⊗W . Dies ist kein Widerspruch, da η
nicht linear, sondern bilinear ist. Im η ist daher im Allgemeinen kein Untervek-
torraum von V ⊗W . Also genügt es auch nicht, zur Surjektivität zu zeigen, dass
eine Basis von V ⊗W im Bild von η liegt.
Nach diesen Vorbemerkungen machen wir uns ans Werk und zeigen, dass η
surjektiv ist, wenn dimV = 0 oder dimW = 0 oder dimV = 1 oder dimW = 1 gilt.
Die Fälle dimV = 0 oder dimW = 0 sind dabei trivial.
Wir behandeln den Fall dimW = 1, der Fall dimV = 1 läuft analog.
Es sei w eine Basis von W und (vi )i∈I eine Basis von V . Dann ist die Familie
(vi ⊗ w)i∈I eine Basis von V ⊗ W , und ein v ∈ V ⊗ W hat aufgrund der Rechen-
regel b) für Tensoren aus 6.3.3 eine eindeutige Darstellung
v = ∑ λi · (vi ⊗ w) mit λi ∈ K ,
wobei nur endlich viele Summanden ungleich 0 sind. Daher gilt
v = ∑ λi · η (vi , w) = η (∑ λi vi , w) ∈ Im η ,
d.h. η ist surjektiv.
Für endlichdimensionale Vektorräume V,W mit dimV = m > 2 sowie
dimW = n > 2 gilt nach Teil b) Im η = Q′ . Da der Punkt
z = (z11 , z12 , . . . , zmn )
mit
z11 = 1, z12 = 0, z21 = 0, z22 = 1, zi j = 0 für i, j ∈
/ {1, 2}
wegen
z11 z22 − z12 z21 = 1 ̸= 0
nicht in Q′ liegt, kann η nicht surjektiv sein.
Auch für unendlichdimensionale Vektorräume V und W kann η nicht surjektiv
sein, da η wie gerade ausgeführt auf unendlich vielen Untervektorräumen nicht
surjektiv ist.
η ist genau dann bijektiv, wenn sie injektiv und surjektiv ist. Das ist nur für
den trivialen Fall V = W = 0 der Fall.
4. a) Wir ergänzen (vi )i∈I bzw. (w j ) j∈J zu Basen (vi )i∈I˜ von V bzw. (w j ) j∈J˜ von
W . Dann ist nach dem Beweis von Theorem 6.3.3 (vi ⊗ w j )(i, j)∈I× ˜ J˜ eine Basis
von V ⊗W . Insbesondere ist jede Teilmenge, also auch
6.3 Tensorprodukte∗ 315

(vi ⊗ w j )(i, j)∈I×J ,


linear unabhängig.
b) Es seien 0 ̸= v ∈ V und 0 ̸= w ∈ W . Dann sind (v) bzw. (w) Familien linear
unabhängiger Vektoren in V bzw. W , erfüllen also die Voraussetzungen für Teil
a). Daher ist die Familie (v ⊗ w) linear unabhängig in V ⊗W , also insbesondere
ungleich 0.
5. Aufgrund der Linearität von F und G ist die Zuordnung F ⊗ G wohldefiniert,
denn sind v ⊗ w und v′ ⊗ w′ zwei Vektoren aus V ⊗ W mit v ⊗ w = v′ ⊗ w′ , so
existiert o.E. ein λ ∈ K mit v = λ v′ und w′ = λ w, und es gilt
F(v) ⊗ G(w) = F(λ v′ ) ⊗ G(w) = λ F(v) ⊗ G(w)
= F(v′ ) ⊗ λ G(w) = F(v′ ) ⊗ G(λ w)
= F(v′ ) ⊗ G(w′ ) .
Diese Überlegung lässt sich mit Hilfe der Linearität von F und G sowie einer
Basis (vi ⊗ w j )(i, j)∈I×J von V ⊗W auf beliebige Elemente übertragen.
Es seien (vi )i∈I bzw. (w j ) j∈J Basen von V bzw. W . Dann wird nach Satz 2.4.1
durch die Familie
( )
(F ⊗ G)(vi ⊗ w j ) (i, j)∈I×J ⊂ V ′ ⊗W ′
in eindeutiger Weise eine lineare Abbildung definiert, die wir ebenfalls mit
F ⊗ G bezeichnen.
Wir definieren nun eine bilineare Abbildung
χ : HomK (V,V ′ ) × HomK (W,W ′ ) → HomK (V ⊗W,V ′ ⊗W ′ )
durch
(F, G) 7→ F ⊗ G .
Nach der universellen Eigenschaft existiert ein eindeutiges lineares χ⊗ , so dass
das Diagramm
χ -
HomK (V,V ′ ) × HomK (W,W ′ ) HomK (V ⊗W,V ′ ⊗W ′ )
(∗)
>

η 

? χ⊗

HomK (V,V ′ ) ⊗ HomK (W,W ′ ) 

kommutiert. Um die Bijektivität von χ⊗ zu beweisen, zeigen wir, dass χ⊗


eine Basis von HomK (V,V ′ ) ⊗ HomK (W,W ′ ) auf eine Basis von
HomK (V ⊗W,V ′ ⊗W ′ ) abbildet. Wir betrachten hierzu Basen (vi )i∈I bzw. (v′i )i∈I ′
von V bzw. V ′ und (w j ) j∈J bzw. (w′j ) j∈J ′ von W bzw. W ′ . Dann sind die Fami-
lien (vi ⊗ w j )(i, j)∈I×J bzw. (v′i ⊗ w′j )(i, j)∈I ′ ×J ′ Basen von V ⊗ W bzw. V ′ ⊗ W ′ .
316 6 Dualität∗

Eine Basis von HomK (V,V ′ ) × HomK (W,W ′ ) ist nach 2.4.2 gegeben durch die
′ j′
Abbildungen Fii × Fj mit
{ ′ { ′
′ vi′ , falls i = k, j′ w j′ , falls j = l,
Fii (vk ) := und Fj (wl ) :=
0 , sonst, 0, sonst,
und eine Basis von HomK (V ⊗W,V ′ ⊗W ′ ) ist gegeben durch die Abbildungen
{ ′
i′ , j′ i′ , j′ vi′ ⊗ w′j′ , falls (k, l) = (i, j),
Fi, j mit Fi, j (vk ⊗ wl ) :=
0, sonst.
Es gilt i′ , j′ ′ j′ ′ j′
Fi, j = Fii ⊗ Fj = χ (Fii , Fj ) ,
also bildet χ diese Basis von HomK (V,V ′ ) × HomK (W,W ′ ) auf eine Basis von
HomK (V ⊗W,V ′ ⊗W ′ ) ab. Da η Basen auf Basen abbildet, folgt die Behauptung
aus der Kommutativität von (∗).
6. ⇒“: Sind v1 , v2 linear abhängig, so existieren λ1 , λ2 ∈ K, die nicht beide

gleich null sind, so dass λ1 v1 + λ2 v2 = 0 gilt. Ist λ1 ̸= 0, so gilt v1 = − λλ2 · v2 ,
1
und damit folgt
v1 ∧ v2 = − λλ2 v2 ∧ v2 = − λλ2 (v2 ∧ v2 ) = 0 .
1 1
⇐“: Es seien v1 , v2 ∈ V linear unabhängig. Wir ergänzen sie zu einer Basis

(vi )i∈I von V mit 1, 2 ∈ I und definieren eine bilineare Abbildung
ξ : V ×V → K
durch ( )
λ1 λ2
ξ (v, w) := det für v = ∑ λi vi und w = ∑ µi vi .
µ1 µ2 i∈I i∈I
Dann ist ξ alternierend, und es gilt
ξ∧ (v1 ∧ v2 ) = ξ (v1 , v2 ) = 1 ̸= 0 ,
woraus v1 ∧ v2 ̸= 0 folgt.
7. a) Die Aussage i) ist klar, da C ein Körper und insbesondere ein Ring ist. ii)
folgt aus Korollar 2.5.4, und iii) gilt nach Aufgabe 9 a) zu 1.3. Die Eigenschaft
1) ist hierbei in allen drei Fällen unmittelbar einsichtig.
b) Es sei λa ∈ End (A) die Linksmultiplikation mit a ∈ A, d.h.
λa (a′ ) = a · a′ für alle a′ ∈ A .
6.3 Tensorprodukte∗ 317

Analog sei λb ∈ End (B) die Linksmultiplikation mit b ∈ B. Dann ist (vgl. Auf-
gabe 5) λa ⊗ λb ∈ End (A ⊗ B), und die Abbildung
λ : A × B → End (A ⊗ B) ,
(a, b) 7→ λa ⊗ λb ,
ist bilinear. Daher existiert eine lineare Abbildung λ⊗ : A ⊗ B → End (A ⊗ B), so
dass das Diagramm
λ - End (A ⊗ B)
A×B

η
? λ⊗
A⊗B
kommutiert.
Wir definieren nun die Multiplikation µ durch
µ : (A ⊗ B) × (A ⊗ B) → A ⊗ B ,
(a1 ⊗ b1 , a2 ⊗ b2 ) 7→ (λ⊗ (a1 ⊗ b1 )) (a2 ⊗ b2 ) =: (a1 ⊗ b1 ) · (a2 ⊗ b2 ) .
Nach Konstruktion ist µ gerade K-bilinear, und es gilt
(λ⊗ (a1 ⊗ b1 )) (a2 ⊗ b2 ) = λ (a1 , b1 ) (a2 ⊗ b2 ) = (λa1 ⊗ λb1 ) (a2 ⊗ b2 )
= a1 a2 ⊗ b1 b2 .
Die Ringeigenschaften folgen aus der Bilinearität von µ , das Einselement von
A ⊗ B ist gegeben durch 1A ⊗ 1B = 1A⊗B .
c) Zur besseren Übersicht kennzeichnen wir für einen Augenblick die Multi-
plikation in K[t] ⊗ K[t] mit ⊙ und den Vektorraum-Isomorphismus aus Beispiel
6.3.4 a) wie dort mit ξ⊗ . Dann gilt für alle f1 , f2 , g1 , g2 ∈ K[t]
ξ⊗ (( f1 ⊗ g1 ) ⊙ ( f2 ⊗ g2 )) = ξ⊗ ( f1 f2 ⊗ g1 g2 ) = f1 f2 · g1 g2
= f1 g1 · f2 g2 = ξ⊗ ( f1 ⊗ g1 ) · ξ⊗ ( f2 ⊗ g2 ) ,
also ist ξ⊗ ein Ringhomomorphismus.
Die Bijektivität von ξ⊗ ist klar, da ξ⊗ ein Vektorraum-Isomorphismus ist.
Algebren können auch über einem Ring R statt einem Körper K definiert werden
(vgl. [P], 1.1). Teil b) gilt auch in diesem Fall, und der Beweis verläuft genauso
wie oben gezeigt (vgl. [P], 9.2, Proposition a).
Für eine Anwendung von Algebren vgl. die Ergänzungsaufgaben in Abschnitt
5.4.
318 6 Dualität∗

8. Wir definieren
V ∨V := (V ⊗V )/S(V ) ,
wobei S(V ) der in 6.3.7 definierte Untervektorraum von V ⊗V ist. Wie im Beweis
von Theorem 6.3.8 bezeichnen wir mit ρ : V ⊗V → V ∨V die Quotientenabbil-
dung und erklären ∨ := ρ ◦ η , d.h. für alle v, v′ ∈ V ist
v ∨ v′ := ∨(v, v′ ) = ρ ◦ η (v, v′ ) = ρ (v ⊗ v′ ) .
∨ ist sicher bilinear, da η bilinear und ρ linear ist. Wegen
S(V ) ⊂ Ker ∨⊗ = Ker ρ
und Lemma 6.3.7 ist ∨ symmetrisch.
Es verbleibt der Nachweis der universellen Eigenschaft, der jedoch analog
zum Beweis von Theorem 6.3.8 verläuft. Wir betrachten das Diagramm
V ×V Z
Z
Bη Z ξ
B Z
Z
BN ~
Z
ξ⊗-
∨ V ⊗V W
 >


ρ 
?   ξ∨

V ∨V 
Nach der universellen Eigenschaft des Tensorproduktes existiert ein eindeu-
tiges ξ⊗ , und nach der universellen Eigenschaft des Quotientenvektorraumes
(2.2.7) gibt es ein eindeutiges ξ∨ . Aus der Kommutativität der Teildiagramme
folgt ξ = ξ∨ ◦ ∨, d.h.
ξ∨ (v ∨ v′ ) = ξ (v, v′ ) für alle v, v′ ∈ V .
Wie bereits im Beweis von Theorem 6.3.8 steckt die Schwierigkeit im Beweis der
Behauptung über die Basis von V ∨V . Die Tensoren (vi ⊗ v j )i, j∈{1,...,n} erzeugen
V ⊗V . Daher erzeugen die Produkte (vi ∨ v j )i, j∈{1,...,n} den Raum V ∨V . Wegen
der Symmetrie der Abbildung ∨ gilt vi ∨ v j = v j ∨ vi , daher erzeugen bereits
die Produkte (vi ∨ v j )16i6 j6n den Raum V ∨ V , und es genügt, deren lineare
Unabhängigkeit zu zeigen. ( )
Hierzu betrachten wir den Vektorraum W = K N mit N = n+1 2 und bezeich-
nen dessen kanonische Basis mit (ei j )16i6 j6n . Wir konstruieren nun eine Abbil-
dung ξ : V ×V → K N . Sind
v = ∑ λi vi und v′ = ∑ µi vi
6.3 Tensorprodukte∗ 319

aus V , so bezeichnen wir ai j := λi µ j + λ j µi für 1 6 i 6 j 6 n. Durch die Zuord-


nung
ξ (v, v′ ) := ∑ ai j ei j
16i6 j6n
wird eindeutig eine symmetrische Abbildung definiert. Aus der universellen Ei-
genschaft folgt
ξ∨ (vi ∨ v j ) = ξ (vi , v j ) = ei j ,
und da die ei j in K N linear unabhängig sind, sind die vi ∨ v j in V ∨ V linear
unabhängig. Die hier erhaltene Abbildung ξ∨ : V ∨V → K N ist ein Vektorraum-
Isomorphismus.
Einen Zusammenhang zwischen symmetrischem Produkt und symmetrischen
Matrizen (vgl. Aufgabe 3 zu 1.6) erhält man wie folgt. Die Zuordnung
 
λ1 µ1 λ1 µ2 · · · λ1 µn
 .. .. 
 λ µ . . 
ξ : V ∨V → Sym (n; K) , (v ∨ v′ ) 7→  1. 2 . 
 .. . .. .. 
λ1 µn · · · · · · λn µn
für v = ∑ λi vi und v′ =(∑ µi v)i definiert einen K-Vektorraum-Isomorphismus. We-
gen dim Sym (n; K) = n+1 2 folgt auch so die Behauptung über die Dimension;
die Urbilder der in Aufgabe 3 zu 1.6 bestimmten Basis von Sym (n; K) ergeben
die oben angegebene Basis von V ∨V .
Auf dieselbe Art kann man einen Isomorphismus
ζ : V ∧V → Alt (n; K)
durch  
0 λ1 µ2 · · · λ1 µn
 . .. 
.
−λ µ . . 
(v ∧ v′ ) 7→  .1 2 
 .. ..
. λn−1 µn 
−λ1 µn · · · −λn−1 µn 0
definieren. Durch Vergleich dieser beiden Darstellungen vom alternierenden
bzw. symmetrischen Produkt wird der Unterschied zwischen ihnen und insbe-
sondere der Dimensionen besonders deutlich.
In Theorem 6.4.2 sowie Aufgabe 5 zu 6.4 werden die hier konstruierten Iso-
morphismen n n+1
V ∧V → K ( 2 ) bzw. V ∨V → K ( 2 )
verallgemeinert.
9. Aufgrund der Eigenschaften der Tensorprodukte V ⊗W und V ⊗W ˜ existieren
eindeutige lineare Abbildungen τ und τ̃ , so dass die Diagramme
320 6 Dualität∗
η̃ - η-
V ×W V ⊗W
˜ V ×W V ⊗W
 
η τ und η̃ τ̃
? ?
V ⊗W V ⊗W
˜
kommutieren. Damit aber kommutiert das Diagramm
η -
V ×W V ⊗W
η̃ τ̃
@ R
@ 
η V ⊗W
˜
τ
?
V ⊗W
Andererseits ist auch das Diagramm
η -
V ×W V ⊗W

η
idV ⊗W
?
V ⊗W
kommutativ. Aus der Eindeutigkeit der Abbildung η⊗ folgt damit τ̃ ◦ τ = idV ⊗W ,
und nach Lemma 1.1.5 ist τ injektiv.
Eine analoge Überlegung zeigt, dass τ surjektiv, also insgesamt bijektiv ist.
Die Teile b) und c) zeigt man genauso.
Das Ergebnis dieser Aufgabe gilt allgemein für Strukturen, die mit Hilfe einer
universellen Eigenschaft konstruiert werden; sie sind bis auf Isomorphie ein-
deutig bestimmt. Beispiele hierfür sind Quotientenvektorräume (vgl. 2.2.7) und
Quotientenkörper (siehe [W], Abschnitt 3.1.5), weiterhin Produkte, Coprodukte
sowie Pullbacks und Pushouts in einer beliebigen Kategorie, vgl. [L], Chapter
I,§7 oder ausführlicher [Schu], insbesondere die Abschnitte 7.3, 7.8, 8.3 und 8.8.
6.4 Multilineare Algebra 321

6.4 Multilineare Algebra


( j)
1. Wir wählen Basen (vi )i∈I j von V j für j = 1, . . . , k und betrachten den K-
Vektorraum
V1 ⊗ . . . ⊗Vk := {τ ∈ Abb (I1 × . . . × Ik , K) : τ (i1 , . . . , ik ) ̸= 0
für nur endlich viele (i1 , . . . , ik ) ∈ I1 × . . . × Ik } .
Es sei {
(1) (k) 1, falls (i1 , . . . , ik ) = (ī1 , . . . , īk ),
vi1 ⊗ . . . ⊗ vik (ī1 , . . . , īk ) :=
0, sonst.
Mit denselben Argumenten wie im Beweis von Theorem 6.3.3 bilden die
(1) (k)
vi1 ⊗ . . . ⊗ vik eine Basis für V1 ⊗ . . . ⊗ Vk . Die Abbildung η wird definiert
durch ( )
(1) (k) (1) (k)
η vi1 , . . . , vik := vi1 ⊗ . . . ⊗ vik .
Analog zu Bemerkung 6.3.2 gilt:
( j)
Seien V1 , . . . ,Vk Vektorräume über K mit Basen (vi )i∈I j für j = 1, . . . , k. Ist U
ein weiterer K-Vektorraum, so gibt es zu einer beliebig vorgegebenen Familie
(ui1 ···ik )(i1 ,...,ik )∈I1 ×...×Ik
in U genau eine multilineare Abbildung
(1) (k)
ξ : V1 × . . . ×Vk → U mit ξ (vi1 , . . . , vik ) = (ui1 ···ik )(i1 ,...,ik )∈I1 ×...×Ik
für alle (i1 , . . . , ik ) ∈ I1 × . . . × Ik .
Der Beweis verläuft völlig analog zu dem von Bemerkung 6.3.2, nur dass die
Indizes komplizierter werden; er sei hier ausgelassen. Auch die Argumentati-
on bezüglich der universellen Eigenschaft ist analog zum Beweis von Theorem
6.3.3. Der Zusatz bzgl. der Dimension ist ohnehin klar.
2. Wir zeigen, dass durch die Zuordnung
(V1 ⊗V2 ) ⊗V3 → V1 ⊗V2 ⊗V3 , (v1 ⊗ v2 ) ⊗ v3 7→ v1 ⊗ v2 ⊗ v3 ,
in eindeutiger Weise ein Isomorphismus von K-Vektorräumen definiert wird. Die
zweite Aussage folgt analog.
Für jedes v3 ∈ V3 betrachten wir die nach Bemerkung 6.3.2 eindeutige bilinea-
re Abbildung fv3 , die definiert wird durch
V1 ×V2 → V1 ⊗V2 ⊗V3 , (v1 , v2 ) 7→ v1 ⊗ v2 ⊗ v3 .
Nach der universellen Eigenschaft des Tensorproduktes existiert eine eindeutige
lineare Abbildung
fv3 ⊗ : V1 ⊗V2 → V1 ⊗V2 ⊗V3 ,
so dass das Diagramm
322 6 Dualität∗
fv3
V1 ×V2 - V1 ⊗V2 ⊗V3

A 

ηA  fv3 ⊗
AU 
V1 ⊗V2

kommutiert. Wir betrachten nun die nach Bemerkung 6.3.2 eindeutig bestimmte
bilineare Abbildung g, die definiert ist durch
(V1 ⊗V2 )×V3 → V1 ⊗V2 ⊗V3 , (v1 ⊗v2 , v3 ) 7→ v1 ⊗v2 ⊗v3 = fv3 ⊗ (v1 ⊗v2 ) .
Aufgrund der universellen Eigenschaft des Tensorprodukts existiert eine eindeu-
tige lineare Abbildung g⊗ , so dass das Diagramm
g-
(V1 ⊗V2 ) ×V3 V1 ⊗V2 ⊗V3
A 

ηA  g⊗
AU 
(V1 ⊗V2 ) ⊗V3

kommutiert. Die Abbildung g⊗ ist nach obigen Ausführungen eindeutig be-


stimmt, nach Konstruktion erfüllt sie die Voraussetzung
g⊗ ((v1 ⊗ v2 ) ⊗ v3 ) = v1 ⊗ v2 ⊗ v3 .
g⊗ ist aus demselben Grunde bijektiv wie χ⊗ in Aufgabe 5 zu 6.3. Damit ist g⊗
ein Isomorphismus.
Analog konstruiert man den kanonischen Isomorphismus
V1 ⊗ (V2 ⊗V3 ) → V1 ⊗V2 ⊗V3 .
Von den verbleibenden Aussagen zeigen wir, dass Bil (V1 ⊗V2 ,V3 ;W ) und
Tril (V1 ,V2 ,V3 ;W ) kanonisch isomorph sind; der Rest folgt analog.
Da (V1 × V2 ) × V3 und V1 × V2 × V3 kanonisch isomorph sind, wählen wir
zunächst die Abbildung χ , die das Diagramm
V1 ×V2 ×V3 ∼
= (V1 ×V2 ) ×V3
@
χ@@ η × idV3
R ?
(V1 ⊗V2 ) ×V3
kommutativ macht. Nun betrachten wir das Diagramm
6.4 Multilineare Algebra 323
χ
(V1 ⊗V2 ) ×V3  V1 ×V2 ×V3
A @ 
A f′@
R f 
A η
η′ A W 
A 6f⊗  
AU
(V1 ⊗V2 ) ⊗V3 = V1 ⊗V2 ⊗V3

und definieren eine lineare Abbildung


φ : Tril (V1 ,V2 ,V3 ;W ) → Bil (V1 ⊗V2 ,V3 ;W ) durch
f 7→ f⊗ ◦ η ′ .
Aufgrund der Eindeutigkeit der Abbildung f⊗ ist φ wohldefiniert, und durch die
lineare Abbildung
φ ′ : Bil (V1 ⊗V2 ,V3 ;W ) → Tril (V1 ,V2 ,V3 ;W ) mit f ′ 7→ f ′ ◦ χ
wird wegen η ′ ◦ χ = η die Umkehrabbildung zu φ definiert.
3. Wie man mit Hilfe der Ausführungen zu Theorem 6.4.2 erkennt, ist die Kon-
struktion des k-fachen äußeren Produktes völlig analog zu der des zweifachen
äußeren
( Produktes.
) Von den k-spaltigen Minoren der Matrix A gibt es nach 3.3.7
genau nk Stück, also ist die Zuordnung ξ eine vernünftige alternierende Abbil-
dung.
Da die Konstruktion des k-fachen äußeren Produktes ansonsten auch analog
zur Konstruktion des k-fachen symmetrischen Produktes verläuft, verweisen wir
für weitere Einzelheiten auf Aufgabe 5.
4. a) ⇒“: Da die Abbildung ∧ alternierend ist, gilt für alle (v1 , . . . , vk ) ∈ V k , für

die ein i ̸= j mit vi = v j existiert, ∧(v1 , . . . , vk ) = 0.
Ist (v1 , . . . , vk ) ∈ V k mit linear abhängigen vi , so sei ohne Einschränkung
vk ∈ span (v1 , . . . , vk−1 ), also existieren λ1 , . . . , λk−1 ∈ K mit
k−1
vk = ∑ λivi .
i=1
Aus der Multilinearität von ∧ folgt damit
k−1
∧(v1 , . . . vk ) = ∧(v1 , . . . , vk−1 , ∑ λi vi )
i=1
k−1
= ∑ λi · ∧(v1, . . . , vk−1, vi) = 0 .
i=1
⇐“: Seien v1 , . . . , vk ∈ V linear unabhängig. Wir ergänzen sie zu einer Ba-

sis (vi )i∈I von V mit 1, . . . , k ∈ I und definieren eine multilineare Abbildung
324 6 Dualität∗

ξ : V k → K durch
 (1) (1)

λ1 · · · λk
 .. .. 
ξ (w1 , . . . , wk ) := det  . . ,
(k) (k)
λ1 · · · λk
wobei
w j = ∑ λ i vi
( j)
für j = 1, . . . , k .
i∈I
Dann ist ξ alternierend, und es gilt
ξ∧ (v1 ∧ . . . ∧ vk ) = ξ (v1 , . . . , vk ) = 1 ̸= 0 ,
woraus v1 ∧ . . . ∧ vk ̸= 0 folgt.
b) Im Fall k > dimV sind in jedem n-Tupel (v1 , . . . , vk ) ∈ V k die Vektoren vi
linear abhängig
( (vgl.)Satz 1.5.2). Daraus folgt nach Teil a) ∧(V k ) = 0, und wegen
∧k ∧
V = span ∧(V k ) folgt k V = 0.
5. Analog zu Aufgabe 7 zu Abschnitt 6.3 definieren wir
∨k
V := V k /Sk (V ) ,
⊗k ∨
wobei S (V ) in 6.4.2 definiert wurde, und bezeichnen mit ρ :
k V → kV die
Quotientenabbildung.
Nun erklären wir ∨ := ρ ◦ η , d.h. für alle (v1 , . . . , vk ) ∈ V k ist
v1 ∨ . . . ∨ vk := ∨(v1 , . . . , vk ) = η ◦ ρ (v1 , . . . , vk ) = ρ (v1 ⊗ . . . ⊗ vk ) .
Aufgrund der Multilinearität von η und der Linearität von ρ ist ∨ multilinear,
und wegen Sk (V ) ⊂ Ker ∨⊗ = Ker ρ ist ∨ nach Lemma 6.4.2 symmetrisch.
Die universelle Eigenschaft erarbeiten wir mittels des folgenden Diagramms.
Vk Z
Z
Bη Z ξ
B Z
Z
BN ~
Z
⊗k ξ⊗-
∨ V W
 >


ρ 
?   ξ∨
∨k 
V 

Wie in Aufgabe 7 zu 6.3 folgt die Existenz eines eindeutigen linearen ξ⊗ aus
der universellen Eigenschaft des Tensorproduktes, und wegen der universel-
len Eigenschaft des Quotientenvektorraumes gibt es damit ein eindeutiges li-
neares ξ∨ . Es folgt ξ = ξ∨ ◦ ∨, d.h. ξ∨ (v1 ∨ . . . ∨ vk ) = ξ (v1 , . . . , vk ) für alle
(v1 , . . . , vk ) ∈ V k .
6.4 Multilineare Algebra 325

Nun kommen wir zum Beweis der Behauptung über die Basis. Wie am Ende
der Lösung zu Aufgabe 7 in 6.3 bemerkt, ist die dort für k = 2 durchgeführte
Konstruktion verallgemeinerungsfähig. Nach Theorem 6.4.1 sind die Tensoren

vi1 ⊗ . . . ⊗ vik mit 1 6 i j 6 n eine Basis von k V . Daher erzeugen die Produkte
vi1 ∨ . . . ∨ vik mit 1 6 i j 6 n
∨k
den Raum V . Aus der Symmetrie von ∨ folgt allerdings, dass bereits die Pro-
dukte
vi1 ∨ . . . ∨ vik mit 1 6 ii 6 . . . 6 ik 6 n
∨k
den Raum V erzeugen. Es genügt also, deren lineare Unabhängigkeit zu zei-
gen. ( )
Dazu betrachten wir den Vektorraum W = K N mit N = n+k−1 k und bezeich-
nen seine kanonische Basis mit
(ei1 ···ik )16i1 6...6ik 6n .
Genauso wie für das zweifache symmetrische Produkt konstruieren wir eine Ab-
bildung ξ : V k → K N , so dass ξ∨ ein Vektorraum-Isomorphismus ist. Das geht
so: Für Vektoren wi = ∑nj=1 λi j v j aus V für i = 1, . . . , k bezeichnen wir
ai1 ···ik := ∑ λ1σ (i1 ) · . . . · λkσ (ik ) mit 1 6 i1 6 . . . 6 ik 6 n
σ ∈Sk
und definieren durch
ξ (w1 , . . . wk ) := ∑ ai1 ···ik · ei1 ···ik
16i1 6...6ik 6n
eine symmetrische Abbildung. Aus der universellen Eigenschaft folgt
ξ∨ (vi1 ∨ . . . ∨ vik ) = ξ (vi1 , . . . , vik ) = ei1 ···ik ,
und da die ei1 ···ik linear unabhängig in K N sind, folgt die lineare Unabhängig-

keit der vi1 ∨ . . . ∨ vik in k V . Wie bereits zuvor ist die so erhaltene Abbildung
∨k
ξ∨ : V → K N ein Vektorraum-Isomorphismus.
6. Es ist zu zeigen, dass durch die angegebene Zuordnung in eindeutiger Weise
eine lineare Abbildung definiert wird. Der Rest ist dann offensichtlich, da nach
der Lösung zu Aufgabe 3 von Abschnitt 1.5 die Polynome ti1 · . . . · tik eine Vek-
torraumbasis von K[t1 , . . . ,tn ](k) bilden. Insbesondere gilt hiernach
( )
n+k−1 ∨
dimK[t1 , . . . ,tn ](k) = = dim k K n ,
k
also wissen wir bereits, dass ein Isomorphismus zwischen den beiden Vektor-
räumen existiert. Es ist jedoch keineswegs klar, dass er auf diese kanonische Art
gegeben werden kann.
326 6 Dualität∗

Wir betrachten nun die eindeutige multilineare Abbildung ξ , die durch die
Zuordnung
(K n )k → K[t1 , . . . ,tn ](k) , (ei1 , . . . , eik ) 7→ ti1 · . . . · tik ,
definiert wird. Aufgrund der Kommutativität von K[t1 , . . . ,tn ](k) ist ξ symme-
trisch. Daher existiert eine eindeutige lineare Abbildung

ξ∨ : k K n → K[t1 , . . . ,tn ](k) ,
so dass das Diagramm
ξ -
(K n )k K[t1 , . . . ,tn ](k)
@ 
∨@ ξ∨
R
@
∨k n
K

kommutiert. Dies ist genau die gesuchte Abbildung.



7. a) Es sei β = (β1 ∧ . . . ∧ βl ) ∈ l V . Durch

µβ : V k → k+l V , (α1 , . . . , αk ) 7→ α1 ∧ . . . ∧ αk ∧ β ,
wird eine eindeutige multilineare Abbildung definiert, also existiert nach der uni-
versellen Eigenschaft des äußeren Produktes ein eindeutiges
(∧ ∧ )
ηβ ∈ Hom k
V, k+l V ,
so dass das Diagramm
µβ ∧
- k+l
Vk V


? ηβ
∧k
V

kommutiert.
Durch die Zuordnung (β1 , . . . , βl ) 7→ ηβ wird eine eindeutige multilineare und
alternierende Abbildung
(∧ ∧ )
λ : V l → Hom k
V, k+l V
definiert. Nach der universellen Eigenschaft des äußeren Produktes existiert eine
eindeutige lineare Abbildung
∧ (∧ ∧ )
λ̄ : l V → Hom k
V, k+l V ,
6.4 Multilineare Algebra 327

so dass das Diagramm


( )
λ - Hom ∧k V, ∧k+l V
Vl


? λ̄
∧l
V

kommutiert.
∧ ∧ ∧
Definieren wir µ : k V × l V → k+l V durch
µ (α , β ) := λ̄ (β )(α ) = ηβ (α ) ,
so ist µ nach Konstruktion bilinear und eindeutig bestimmt.
b) Wir berechnen
α ∧ β = α1 ∧ . . . ∧ αk ∧ β1 ∧ . . . ∧ βl
= −α1 ∧ . . . ∧ β1 ∧ αk ∧ . . . ∧ βl
= . . . = (−1)l · α1 ∧ . . . ∧ αk−1 ∧ β1 ∧ . . . ∧ βl ∧ αk
= (−1)2l · α1 ∧ . . . ∧ αk−2 ∧ β1 ∧ . . . ∧ βl ∧ αk−1 ∧ αk
= . . . = (−1)k·l β1 ∧ . . . ∧ βl ∧ α1 ∧ . . . ∧ αk .

8. a) Die Injektivität der linearen Abbildungen b′ und b′′ zu einer Bilinearform b


(vgl. 6.2.1) lässt sich so ausdrücken, dass für jedes 0 ̸= v ∈ V ein w ∈ W existiert,
so dass b(v, w) ̸= 0 gilt, und für jedes 0 ̸= w ∈ W ein v ∈ V existiert, so dass
b(v, w) ̸= 0 gilt. Diese Eigenschaft wollen wir im Folgenden benutzen.

i) Wir betrachten zunächst ein 0 ̸= α ∈ k V der Form α = v1 ∧ . . . ∧ vk .
Die Vektoren v1 , . . . , vk sind linear unabhängig; wir ergänzen sie zu einer Basis
(v1 , . . . , vn ) von V und definieren

β := vk+1 ∧ . . . ∧ vn ∈ n−k V .
Es gilt α ∧ β ̸= 0, da die Vektoren v1 , . . . , vn eine Basis von V und daher linear
unabhängig sind.
r ∧k
Nun sei ein α̃ = ∑ αi ∈ V mit αi = vi1 ∧ . . . ∧ vik und α1 ̸= 0 gegeben. Falls
i=1
ein αi mit vi j ∈ span (v11 , . . . , v1k ) existiert, so gibt es nach analogen Aussagen
zu den Rechenregeln aus 6.3.8 sowie Aufgabe 4 a) ein λ ∈ K mit αi = λ · α1 .
Wir können daher annehmen, dass
r
α̃ = α + ∑ αi
i=1
mit α = v1 ∧ . . . ∧ vk ̸= 0, und für alle i = 1, . . . , r existiert ein vi j mit vi j ∈
/

span (v1 , . . . , vk ). Wählen wir für α ein β ∈ n−k V wie bereits oben, so folgt
328 6 Dualität∗

mit Aufgabe 4 a)
α̃ ∧ β = α ∧ β ̸= 0 .
Die Behauptung für ein β ̸= 0 zeigt man analog.
ii) Es genügt nach einer analogen Argumentation wie in Teil i), die Behaup-

tung für Vektoren der Form v = v1 ∧ . . . ∧ vk ∈ k V zu zeigen.
Wir wählen dazu ein v ̸= 0 der obigen Form. Dann sind die Vektoren
v1 , . . . , vk linear unabhängig und können zu einer Basis B = (v1 , . . . , vn ) von
V ergänzt werden. Mit B ∗ = (v∗1 , . . . , v∗n ) bezeichnen wir die duale Basis von B.
Wählen wir ∧
φ := v∗1 ∧ . . . ∧ v∗k ∈ k V ∗ ,
so folgt
 
v∗1 (v1 ) · · · v∗1 (vk )
det φ (v) = det  ... ..  = det E = 1 ̸= 0 .
. n
v∗k (v1 ) · · · v∗k (vk )
Der zweite Teil der Behauptung folgt wegen V ∗∗ ∼ = V durch Dualisierung.
b) Aus Teil a) ii) zusammen mit Satz 6.2.1 ( erhalten
) wir
∧k ∗ ∼ ∧k ∗
V = V ,
dies ist i). Ferner gilt nach Teil a) i) mit Satz 6.2.1
∧k ∼ (∧n−k )∗
V= V ,
also zusammen mit i) (∧ )∗ ∧
∧k
V∼
= n−k
V ∼= n−k V ∗ ,
das zeigt ii).
9. Analog zu Aufgabe 2 zu 6.3 zeigt man, dass Altk (V ;W ) ⊂ Abb (V k ,W ) ein
Untervektorraum ist. Dies folgt mit einer kurzen Rechnung, die wir hier auslas-
sen.
Auch der Nachweis, dass die kanonische Abbildung

φ : Altk (V ;W ) → Hom( k V ,W ) , ξ 7→ ξ∧ ,
ein Isomorphismus ist, verläuft wie in Aufgabe 2 zu 6.3. Wie bereits dort soll-
te allerdings beachtet werden, dass die Wohldefiniertheit einer Abbildung auf
Restklassen keineswegs klar ist.
∧ ∧
Mit Hilfe von Aufgabe 8 a) i) folgt, dass ( k V )∗ und k V ∗ kanonisch iso-
morph sind. Damit können wir im Fall W = K die kanonische Abbildung φ als
Abbildung ∧
φ : Altk (V, K) → k V ∗
auffassen, d.h. eine alternierende Abbildung ξ : V k → K, auch alternierende k-

Form genannt, kann mit dem Element φ (ξ ) ∈ k V ∗ identifiziert werden.
6.4 Multilineare Algebra 329

Auf diese Art werden z.B. in [Fo3], §19 Differentialformen höherer Ordnung
eingeführt, indem für K = R mit V = Tp (U) der Tangentialraum im Punkt p ∈ U
einer offenen Teilmenge des Rn gewählt wird.
Mit Hilfe von Differentialformen kann der Integralbegriff auf Mannigfaltig-
keiten erweitert werden. Als Höhepunkt erhält man den allgemeinen Stokesschen
Integralsatz, der als Spezialfälle den Gaußschen Integralsatz und den klassi-
schen Stokesschen Integralsatz enthält. Zu Einzelheiten siehe [Fo3], §18–21 oder
[C-B], Chapter IV.
Lösungen der Ergänzungsaufgaben
E1. a) Wir zeigen die zu Beginn der Aufgabe notierten Zusammenhänge (1) und
(2).
Zu (1): ( )
g (ξ ( f1 , . . . , fk )) (u1 , . . . , λ · ui , . . . , uk )
= g (ξ ( f1 (u1 ), . . . , fi (λ · ui ), . . . , fk (uk )))
fi lin.
= g (ξ ( f1 (u1 ), . . . , λ · fi (ui ), . . . , fk (uk )))
ξ multilin.
= g (λ · ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )))
g lin.
= λ · g (ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk ))) .
Zu (2): ( )
g (ξ ( f1 , . . . , fk )) (u1 , . . . , ui + u∗i , . . . , uk )
= g (ξ ( f1 (u1 ), . . . , fi (ui + u∗i ), . . . , fk (uk )))
fi lin.
= g (ξ ( f1 (u1 ), . . . , fi (ui ) + fi (u∗i ), . . . , fk (uk )))
ξ multilin. (
= g ξ ( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )))
+ξ ( f1 (u1 ), . . . , fi (u∗i ), . . . , fk (uk ))
g lin. ( )
= g ξ(( f1 (u1 ), . . . , fi (ui ), . . . , fk (uk )) )
+g ξ ( f1 (u1 ), . . . , fi (u∗i ), . . . , fk (uk )) .
Damit ist die Behauptung bewiesen.
b) Es seien (v1 , . . . , vr ) ∈ V1 × . . . ×Vr und (vr+1 , . . . , vk ) ∈ Vr+1 × . . . ×Vk . Ferner
seien
ξ1 (v1 , . . . , vi + v∗i , . . . , vr ) ∈ W1 und ξ2 (vr+1 , . . . , vk ) ∈ W2 .
Dann gilt ( )
ξ ξ1 (v1 , . . . , vi + v∗i , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ξ1 multilin. ( )
= ξ ξ1 (v1 , . . . , vi , . . . , vr ) + ξ1 (v1 , . . . , v∗i , . . . , vr ), ξ2 (vr+1 , . . . , vk )
ξ multilin. ( )
= ξ ξ(1 (v1 , . . . , vi , . . . , vr ), ξ2 (vr+1 , . . . , vk ) )

+ξ ξ1 (v1 , . . . , vi , . . . , vr ), ξ2 (vr+1 , . . . , vk ) .
330 6 Dualität∗

Analog verläuft die Rechnung für (vr+1 , . . . , vi + v∗i , . . . , vk ) ∈ Vr+1 × . . . ×Vk und
ξ2 .
Damit ist die Bedingung (2) bewiesen. (1) lässt sich analog zu Teil a) nach-
weisen.
E2. a) Zu Bedingung (1) von multilinearen Abbildungen: Wir bezeichnen
V := V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk , und es seien v ∈ Vi für 1 6 i 6 k beliebig,
(v1 , . . . , vi−1 , vi+1 , . . . , vk ) ∈ V .
Für ein beliebiges λ ∈ K und j < i folgt
ξ(i,v) (v1 , . . . , λ · v j , . . . , vi−1 , vi+1 , . . . , vk )
= ξ (v1 , . . . , λ · v j , . . . , vi−1 , v, vi+1 , . . . , vk )
ξ multilin.
= λ · ξ (v1 , . . . , v j , . . . , vi−1 , v, vi+1 , . . . , vk )
= λ · ξ(i,v) (v1 , . . . , vi−1 , vi+1 , . . . , vk ) .
Analog verläuft die Berechnung für j > i.
Bei dem Beweis der Bedingung (2) wird die Multilinearität der Abbildung ξ
analog berücksichtigt.
b) ξ(i,v) = 0 bedeutet, dass es sich bei Nullabbildung handelt, d.h. es gilt
ξ(i,v) = 0 ⇐⇒ ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) = 0 ∀ v j ∈ V j mit j ̸= i .
Da ξ(i,l) eine multilineare Abbildung ist, ist sie für festes
(v1 , . . . , vi−1 , vi+1 , . . . , vk ) ∈ V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vk
eine lineare Abbildung Vi → W . Daher ist für v, w ∈ Vi0
ξ(i,λ ·(v+w)) = 0 ⇐⇒ ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk ) = 0
Mithilfe der Rechenregeln für Vektorräume folgt
ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk )
= λ · ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) + λ · ξ (v1 , . . . , vi−1 , w, vi+1 , . . . , vk ) .
Daher gilt ξ(i,λ ·(v+w)) = 0 genau dann, wenn
ξ (v1 , . . . , vi−1 , λ · (v + w), vi+1 , . . . , vk ) =
λ · ξ (v1 , . . . , vi−1 , v, vi+1 , . . . , vk ) + λ · ξ (v1 , . . . , vi−1 , w, vi+1 , . . . , vk ) = 0
⇐⇒ λ · ξ(i,v) + λ · ξ(i,w) = 0 , womit die Behauptung bewiesen ist.
c) Die Linearität der Abbildung und ihre Surjektivität ergeben sich direkt aus
Teil a).
Es sei ξ ∈ ker(η ) Dann gilt für alle v ∈ Vi :
ξ(i,v) (ṽ) = 0 für alle ṽ ∈ V1 × . . . ×Vi−1 ×Vi+1 × . . . ×Vn .
Damit ist ξ(i,v) eine Nullabbildung für alle v ∈ Vi , und damit folgt ξ (w) = 0 für
alle w ∈ V1 × . . . ×Vk .
6.4 Multilineare Algebra 331

E3. a) Setzen wir ei = v j · e′j in Gleichung 6.1 ein, so folgt


j

e′j = v′ij · ei = v′ij · (vi · e′j ) = (v′ij · vi ) · e′j .


j j

Hieraus folgt die Behauptung.


b) Setzt man die Gleichungen (6.3) und (6.4) in Gleichung (6.5) ein, so ergibt
sich
i ···i
T = T j11··· jpp ei1 ⊗ . . . ⊗ ei p ⊗ e j1 ⊗ . . . ⊗ e jq
i ···i ′j ′j
= T j11··· jpp vki11 · e′k1 ⊗ . . . ⊗ vi pp e′k p ⊗ vl11 · e′l1 ⊗ . . . ⊗ vlqq · e′lq
k

′j i ···i
= vki11 vl11 · . . . · v′ jk · T j11··· jqp · e′k1 ⊗ . . . ⊗ e′k p ⊗ e′l1 ⊗ . . . ⊗ e′lq
′k1 ···k p ′l1
= Tl1 ···l q
· e ⊗ . . . ⊗ e′lq .
Die Transformationsformel ist daher
′k1 ···k p k ′j ′j ′j i ···i
Tl1 ···lq
= vki11 vki22 · . . . · vi pp · vl11 · vl22 · vlqq · T j11··· jqp . ~

c) Es handelt sich um einen kontravarianten Tensor, daher ist in Gleichung ~ aus


Teil b) q = 0. Damit ergibt sich
∂ x′k1 ∂ x′k p
T ′k1 ···k p = · . . . · i p · T i1 ···i p .
∂x 1i ∂x
′k ∂x ′k
Mit T ′k = dxdt und T i = dx ′k
i
dt ergibt sich T = ∂ xi · T .
i

d) Für die partiellen Ableitungen gilt


∂f ∂ f ∂xj ∂xj ∂ f
′i
= j ′i = ′i j .
∂x ∂x ∂x ∂x ∂x
Für einen kovarianten Tensor ergibt sich nach Gleichung ~ mit p = 0
′j ′j ′j
Tl′1 ···lq = vl11 · vl22 · vlqq · T j1 ··· jq .
′j
Setzt man Ti′ = ∂∂xf′i , T j = ∂f
∂xj
und vi = ∂xj
∂ xi
, so ergibt sich die Gleichung der
Geschwindigkeit.
Literaturverzeichnis

[A-M] L. Auslander und R.E. MacKenzie: Introduction to Differentiable


Manifolds. Dover Publications, Inc. 1977.
[Ar] M.A. Armstrong: Basic Topology. Springer 1983.
[Arn] V.I. Arnold: Mathematical Methods of Classical Mechanics.
Springer 1978.
[A-Z] M. Aigner und G.M. Ziegler: Das Buch der Beweise, 4. Auflage.
Springer Spektrum 2015.
[B] A. Bartholomé et al: Zahlentheorie für Einsteiger, 7. Auflage.
Vieweg+Teubner 2010.
[Ba] H. Bauer: Maß- und Integrationstheorie. Walter de Gruyter 1990.
[Be] E. Behrends: Introduction to Markov Chains. Vieweg 2000.
[B-F1] M. Barner und F. Flohr: Analysis I. Walter de Gruyter 1974.
[B-F2] M. Barner und F. Flohr: Analysis II. Walter de Gruyter 1982.
[B-M] R. Braun und R. Meise: Analysis mit Maple, 2. Auflage.
Vieweg+Teubner 2012.
[B-S] I.N. Bronstein und K.A. Semendjajew: Taschenbuch der Mathematik,
23. Auflage. Verlag Harri Deutsch 1987.
[C-B] Y. Choquet-Bruhat und C. DeWitt-Morette: Analysis, Manifolds and
Physics. North-Holland 1977.
[C-H] R. Courant und D. Hilbert: Methoden der mathematischen Physik, 4.
Auflage. Springer 1993.
[C-V] C.O. Christenson und W.L. Voxman: Aspects of Topology.
Marcel Dekker, Inc. 1977.
[E] H.D. Ebbinghaus et al: Zahlen, 3. Auflage. Springer 1992.
[Enz] H.M. Enzensberger: Der Zahlenteufel. Hanser 1997.
[F-H] W. Fulton und J. Harris: Representation Theory: A First Course.
Springer 2004.
[Fi1] G. Fischer: Lineare Algebra, 18. Auflage. Springer Spektrum 2014.
[Fi2] G. Fischer: Ebene algebraische Kurven. Vieweg 1994.
[Fi3] G. Fischer: Analytische Geometrie, 7. Auflage. Vieweg 2001.
[Fi4] G. Fischer: Lernbuch Lineare Algebra und Analytische Geometrie,
2. Auflage. Springer Spektrum 2012.
[Fo1] O. Forster: Analysis 1, 12. Auflage. Springer Spektrum 2016.
[Fo2] O. Forster: Analysis 2, 10. Auflage. Springer Spektrum 2013.

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4
Literaturverzeichnis 333

[Fo3] O. Forster: Analysis 3, 7. Auflage. Springer Spektrum 2012.


[G] W. Greiner: Mechanik, Teil 2, 5. Auflage. Verlag Harri Deutsch 1989.
[Ha] J. Harris: Algebraic Geometry: A First Course. Springer 1992.
[Hä] O. Häggström: Finite Markov Chains and Algorithmic Applications.
Oxford University Press 2002.
[K-P] J. Kramer und A.-M. von Pippich: Von den natürlichen Zahlen zu den
Quaternionen. Springer Spektrum 2013.
[Ku1] E. Kunz: Algebra, 2. Auflage. Vieweg 1994.
[Ku2] E. Kunz: Einführung in die algebraische Geometrie. Vieweg 1997.
[L] S. Lang: Algebra, 2nd Edition. Addison-Wesley 1984.
[Li] S. Lipschutz: Lineare Algebra. McGraw-Hill 1977.
[Me] M.L. Mehta: Random Matrices, 2nd Edition. Academic Press 1991.
[M-V] R. Meise und D. Vogt: Einführung in die Funktionalanalysis,
2. Auflage. Vieweg+Teubner 2011.
[Ne] T. Needham. Visual Complex Analysis. Oxford University Press 1997.
[O] E. Ossa: Topologie, 2. Auflage. Vieweg+Teubner 2009.
[P] R.S. Pierce: Associative Algebras. Springer 1982.
[S1] H. Stoppel: Mathematik anschaulich: Brückenkurs mit M APLE.
Oldenbourg 2002.
[S2] H. Stoppel: http://wwwmath.uni-muenster.de/42/de/
institute/didaktik.
[S3] H. Stoppel: Stochstik und Statistik. Aulis 2010.
[S4] H. Stoppel: Algorithmen im Mathematikunterricht. Vorlesung RUB
WS 2004/05. Unter http://wwwmath.uni-muenster.de/
42/de/institute/didaktik/
[Scha] W. Scharlau: Schulwissen Mathematik: Ein Überblick, 3. Auflage.
Vieweg+Teubner 2001.
[Scho] M. Schottenloher: Geometrie und Symmetrie in der Physik.
Vieweg 1995.
[Schu] H. Schubert: Kategorien I. Springer 1970.
[SG] H. Stoppel, B. Griese: http://www.springer.com.
[Sh] I.R. Shafarevich: Basic Algebraic Geometry 1, 3rd Edition.
Springer 2007.
[St] I. Stewart: Galois Theory, 2nd Edition. Chapman and Hall 1989.
[Str] G. Strang: Linear Algebra and its Applications. Academic Press 1976.
[S-W] M. Schubert, G. Weber: Quantentheorie. Spektrum, Akademischer
Verlag 1993.
334 Literaturverzeichnis

[V] Vieweg Mathematik Lexikon, 2. Auflage. Vieweg 1993.


[W] J. Wolfart: Einführung in die Zahlentheorie und Algebra, 2. Auflage.
Vieweg+Teubner 2011.
[We] A. Werner: Elliptische Kurven in der Kryptographie. Springer 2002.
Sachwortverzeichnis
Abbildung, 21 nicht-entartete, 63
2π -periodische, 21 symmetrische, 67, 288
adjungierte, 306 binomischer Lehrsatz, 249
multilineare, 79, 329
trilineare, 77 Cantorsches Diagonalverfahren
Ableitung, 115 erstes, 101
Ableitungshomomorphismus, 27, 30 zweites, 101
Abstand, 57, 73 Cayley-Hamilton, Satz von, 38
Abstand zwischen charakteristisches Polynom, 197
Punkt und Gerade, 57 codieren, 115
Punkt und Hyperebene, 58 Codierung, 15
abzählbar unendlich, 12, 101 Coprodukt, 320
Addition von Abbildungen, 21 Cosinussatz, 56
Addition von Punkten einer Kurve, Darboux-Basis, 63, 277, 302
17 de Morgansche Regeln, 98
adjungierte Abbildung, 306 Deckabbildung, 14
ähnlich, 53 decodieren, 115
Äquivalenzklasse, 13 Descartes,Vorzeichenregel, 123
Äquivalenzrelation, 108 Determinante, 41, 198
Reflexivität, 108 Gaus-Algorithmus, 193
Symmetrie, 108 Leibniz-Formel, 193
Transitivität, 108 diagonalisierbar, 227
Algebra, 75, 240, 317 Diedergruppe, 13, 106
Algebra-Homomorphismus, 240 Differentialform, 329
algebraisch abgeschlossen, 155 Differentialgleichung, 42, 47, 49, 220,
algebraische Geometrie, 122, 137, 239
313 direktes Produkt, 104
algebraische Kurve, 171 Diskriminante, 40, 43, 188, 205, 224
algebraische Varietät, 122 Drehstreckung, 167
alternierend, 25, 39, 78 Drehung, 14, 167
alternierende k-Form, 328
anti-selbstadjungiert, 69, 73 Eigenraum, 147
antihermitesch, 73 Eigenwert, 147
Einheit, 198
Basis, 134 Einheitengruppe, 20, 198
Besselsche Ungleichung, 63, 273 Einheitswurzel, 118, 235
Bilinearform Einheitswurzelgruppe, 118

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4
336 Sachwortverzeichnis

Einsteinsche Summenkonvention, 80 Goldener Schnitt, 234


Elektronen Grad, 19
Spin, 65 Gradient, 307, 308
Ellipse, 7, 93 Grassmann-Identität, 59
Brennpunkt, 7 Grassmann-Mannigfaltigkeit, 214
Directrix, 8 Grassmann-Varietät, 214
lineare Exzentrizitat, 7 Gruppe
numerische Exzentrizitat, 7 spezielle lineare, 42, 200
euklidischer Algorithmus, 202 zyklische, 13, 18, 106, 117
Existenz- und Eindeutigkeitssatz, 203,
221 Halbnorm, 260
Exponentialfunktion, 53 hermitesch, 71
Hesse-Kurve, 171
Fermatsche Vermutung, 15 Hesse-Matrix, 34, 170, 307
Fibonacci-Zahl, 235 Hessesche Normalform, 57
Fibonacci-Zahlen, 233 Hyperebene, 58
Fixpunkt, 26 Höhe, 137
Fixpunktraum, 31 homogen, 19
Folge homogene Komponente, 121
beschränkte, 22 Homogenisierung, 156
konvergente, 22 Hotel der Mathematiker, 12
rekursive, 50 Hyperbel, 9, 95, 96
formale Ableitung, 118, 188 Asymptote, 10
Formel von Euler, 230 Direktrizen, 10
Formel von Leibniz, 192 Leitlinien, 10
Fourier-Reihe, 273 lineare Exzentrizitat, 9
Fourier-Zerlegung, 133 numerische Exzentrizitat, 9
Fourierkoeffizient, 62, 272, 273 Hyperebene, 58
Fundamentalsystem, 204, 238
Funktion idempotent, 150, 161
rationale, 20 imaginäre Einheit, 6
injektiv, 99
Gaußsche Zahlen, Ring der, 21 Integralsatz
Gerade, 7 Gaußscher, 329
Gleichung einer, 93 Stokesscher, 329
Richtungsvektor, 92 integrierbar
Stutzpunkt, 92 p-fach, 260
gleichmächtig, 12 Integritätsring, 20
Gleichung von Parseval, 275 invertierbar, 198
Sachwortverzeichnis 337

Jacobi-Identität, 59, 65, 261 lokales Extremum, 307


Jacobi-Identitat, 65, 261
Jacobi-Matrix, 33, 169, 307 Markov-Kette, 37, 48, 71
Mathematikerhotel, 102
Kategorie, 320 Matrix
Kegel, 70, 312 alternierende, 25, 319
Klein’sche Vierergruppe, 14 antihermitesche, 65
Koeffizientenkriterium, 86 hermitesche, 71
Koeffizientenmatrix inverse, 167
erweiterte, 88 invertierbare, 198
Körper komplementäre, 44
endlicher, 116, 155 nilpotente, 32
komplementäre Matrix, 44 schiefhermitesche, 65
komplexe Ebene, 219 schiefsymmetrische, 25, 41, 64
komplexe Struktur, 61, 68 Spur, 64
ω -kalibrierte, 68 symmetrische, 25, 319
komplexe Zahlen, 6, 166 Matrizen
Kontraposition, 3 ähnliche, 175
Kreis, 7, 93 äquivalente, 175
Kronecker-Symbol, 66, 135, 165 symmetrische, 34
Kryptographie, 15 verbindbare, 218
Kürzungsregel, 34 Metrik, 62
Kugelschnitt, 66 Modul, 138
Kurve modulo, 18
elliptische, 15 Möbius-Transformation, 43
Kurve im Rn , 81 multilinear, 79, 329

lexikographische Ordnung, 312 negativ definit, 70


LGS, 88 nicht ausgeartet, 78
Lie, 64 nicht-entartet, 302
Lie-Algebra, 64, 65, 251, 281 nilpotent, 32, 47, 148, 178, 220, 237
antihermitesche Matrix, 65 Norm, 61, 62
schiefhermitesche Matrix, 65 Normabbildung, 21
schiefsymmetrische Matrix, 64 Normalenvektor, 57
spezielle lineare, 64 Nullstelle
Lie-Gruppe, 251, 278 mehrfache, 40, 227
linear abhängig, 3, 85 Nullteilerfreiheit, 20
linear unabhängig, 3, 85
Linearform, 67, 288 orthogonal, 57
338 Sachwortverzeichnis

Parabel, 206 Reihe


Parallelogramm-Gleichung, 56, 61, absolut konvergente, 22
269 Rekursion, 50
Parseval, Formel von, 63 Resultante, 40
Pascalsches Dreieck, 136 Ring
Pauli-Matrizen, 65 Einheit, 20
Permutation, 14 faktorieller, 188
Pfaffsches Polynom, 41 nullteilerfrei, 20
Pivot, 4, 89 Rundungsfehler, 91
Plücker-Relation, 213
Plückerkoordinaten, 44, 212, 214 Satz von Cayley-Hamilton, 51
Polarisierung, 267 Satz von Pythagoras, 56
Polarkoordinaten, 219 Satz von Vieta, 16
Polynom, 19 Schiefkörper, 125
homogenes, 19, 23, 77, 156 schiefsymmetrisch, 25, 143
irreduzibles, 235 schiefsymmetrische Matrix, 64
trigonometrisches, 21, 62 schleifender Schnitt, 91
Polynome vom Grad kleiner oder Segre-Abbildung, 313
gleich 3, 31 Singularität, 16
Polynomring, 19 Skalarprodukt, 61, 62, 87, 156
Prähilbertraum, 275 Spaltenrang, 24
Primfaktorzerlegung, 188 spezielle lineare Gruppe, 42, 200
Primkörper, 139 spezielle lineare Lie-Algebra, 64
Produkt, 320 Spiegelung, 14
äußeres, 78, 319 Spur, 64, 71, 280
direktes, 21, 23, 24 Standard-Metrik, 167
Standard-Topologie, 167
symmetrisches, 75, 77, 319, 324
Substitution, 155
projektiver Raum, 212, 214, 313
Summe von Punkten einer Kurve, 17
Pullback, 320
Summenkonvention
Pushout, 320
Einsteinsche, 80
Quadratfreiheit, 16 Symmetriegruppe, 112
quadratische Erganzung, 93 Symmetriegruppen von Vielecken,
Quadrik, 7, 66, 312 106
Quantenmechanik, 65 symmetrisch, 25, 48, 75, 77, 143
Quotientenkörper, 122, 320 symplektischer Unterraum, 302
Quotientenvektorraum, 320 symplektischer Vektorraum, 63, 68,
71
rationale Funktion, 122 symplektisches Komplement, 302
Sachwortverzeichnis 339

Tangentialraum, 329 winkeltreu, 67


Teleskopsumme, 178 Wronski-Determinante, 42, 204
Tensor, 80
Geschwindigkeit, 81 Zeilenrang, 24
kontravarianter, 81, 331 Zerfällungskörper, 117, 238
kovarianter, 81, 331 Zufallsmatrix, 71
Tensorprodukt zusammenhängend, 46
Eindeutigkeit, 319 Zykel, 198
Tensorprodukt, Eindeutigkeit, 76 zyklische Gruppe, 18
Topologie, 167, 217
metrische, 167
Standard-, 167

überabzählbar, 12, 101


Unbestimmte, 19
universelle Eigenschaft, 27, 76, 77,
320
Unteralgebra, 240
Untergruppe, 13

Vandermonde-Determinante, 41, 191,


192
Variation der Konstanten, 238
Vektorprodukt, 87
verallgemeinertes, 60
verallgemeinerte Exponentialfunkti-
on, 251
verbindbar, 46, 216, 218
vollständige Induktion, 114
Vorzeichenregel von Descartes, 20

Wahrscheinlichkeitsverteilung, sta-
tionare, 48
Weg, 218
wegzusammenhängend, 217
Weierstraß-Kurven, 16
Weierstras-Kurve, 15
Widerspruchsbeweis, 3, 85
Winkel, 56
Symbolverzeichnis

a := b a ist definiert durch b


a⇒b aus a folgt b C komplexe Zahlen
K R oder C
a⇔b a und b sind gleichwertig
N natürliche Zahlen
Q rationale Zahlen
0/ leere Menge
R reelle Zahlen
∈ Element
R+ nicht-negative reelle Zahlen
⊂ Teilmenge
R∗+ positive reelle Zahlen
∪ Vereinigung
Rn reeller Standardraum
∩ Durchschnitt
Z ganze Zahlen
r Differenzmenge Z/mZ zyklische Gruppe
× direktes Produkt oder Vektor-
produkt
K∗ Elemente ungleich null
→, 7→ Abbildungspfeile V∗ dualer Vektorraum
◦ Komposition von Kn Standardraum
Abbildungen
K[t] Polynomring über K
| Beschränkung von K[t1 , . . . ,tn ] Polynomring über K
Abbildungen
R[t]3 Polynome vom Grad kleiner oder
f −1 Umkehrabbildung von f gleich 3 über R
∼ äquivalent R× Einheitengruppe
(xi )i∈I Familie Z[i] Ring der Gaußschen Zahlen
∑ Summenzeichen K kanonische Basis
∏ Produktzeichen ei kanonischer Basisvektor
δi j Kronecker-Symbol
+ Summe C stetige Funktionen
⊕ direkte Summe D differenzierbare Funktionen

⃝ orthogonale Summe
An alternierende Gruppe
⟨ ,⟩ Skalarprodukt Sn symmetrische Gruppe
∥ ∥ Norm M(m × n; K) Matrizenring
^ Winkel M(n; K) Matrizenring M(n × n; K)
d Abstand GL (n; K) allgemeine lineare Gruppe
O(n) orthogonale Gruppe
SO(n) spezielle orthogonale Gruppe
U(n) unitäre Gruppe

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4
Symbolverzeichnis 341

A−1 inverse Matrix Abb Abbildungen


Alt(n; K) alternierende Matrizen char Charakteristik
tA transponierte Matrix deg Grad
A♯ komplementäre Matrix det Determinante
Eij Basismatrix dim Dimension
En n-reihige Einheitsmatrix Eig Eigenraum
MB A darstellende Matrix Fix Fixpunktraum
MB darstellende Matrix Hau Hauptraum
TBA Transformationsmatrix End Endomorphismen
Qij Elementarmatrix Hom Homomorphismen
Qij (λ ) Elementarmatrix Im Bild
Si (λ ) Elementarmatrix Ker Kern
SL(n; G) spezielle lineare Gruppe Lk multilineare Abbildungen
Sym(n; K) symmetrische Matrizen Lös Lösungsmenge
Pi j Elementarmatrix L Lösungsmenge
rang Rang
ΦB Koordinatensystem sign Signum
Fi j Basishomomorphismen Sp Spur
F∗ duale Abbildung span aufgespannter Vektorraum
F ad adjungierte Abbildung
IF Ideal von F
Lk Multilineare Abbildung
Verzeichnis der Ergänzungsaufgaben

Im Verlauf der Auflagen ist die Anzahl an Ergänzungsaufgaben auf 90 ange-


stiegen. Die Aufgaben finden sich am Ende der Aufgaben des Abschnitts, ihre
Lösungen an entsprechenden Stellen im Lösungsteil. Um einen Überblick zu er-
halten, sind sie hier in einer Liste dargestellt. Dabei wurden auch Stichworte
über die Inhalte und Bezüge zu anderen Bereichen der Mathematik notiert. Die
erstmals in der neunten Auflage auftretenden Ergänzungsaufgaben sind kursiv
gedruckt.

0 Lineare Gleichungssysteme
0.4 Das Eliminationsverfahren von Gauß

• E1 bis E10. Lösung linearer Gleichungssysteme mit reellen Lösungen

• E11 bis E15. Lösung linearer Gleichungssysteme mit komplexen und re-
ellen Lösungen

0.5 Geraden und Quadratische Kurven im R2


Dieser Abschnitt wurde gegenüber [Fi1] ergänzt, um über Geraden hinaus einen
kurzen Blick auf elementare geometrische Figuren zu werfen. Er lässt sich auch
als Ausblick auf die Übungsaufgaben E12 bis E14 in Abschnitt 5.4 betrachten.

• E1. Geraden

• E2. Kreise

• E3 und E4. Ellipsen

• E5 und E6. Hyperbeln

1 Grundbegriffe
1.1 Mengen und Abbildungen

• E1. Mächtigkeit der Menge der Abbildungen zwischen Mengen

© Springer Fachmedien Wiesbaden 2017


H. Stoppel und B. Griese, Übungsbuch zur Linearen Algebra,
Grundkurs Mathematik, DOI 10.1007/978-3-658-14522-4
Verzeichnis der Ergänzungsaufgaben 343

1.2 Gruppen

• E1. Untersuchung von mZ und Z/mZ

• E2. Untergruppen

• E3. Vereinigung von Untergruppen, Produkt von Untergruppen

• E4. Kleinsche Vierergruppe, Gruppenprüfung

• E5. Gruppen mit vier Elementen, Gruppenprüfung

• E6. Drehung und Spiegelung, Permutation

• E7 bis E10. Elliptische Kurven, Restklassen, Codierung und Kryptogra-


phie, Weierstraß-Kurven, Satz von Vieta, Singularität

1.3 Ringe, Körper und Polynome

• E1. Eigenschaften des Polynomrings

• E2. Charakteristik, Gruppennachweis, Integritätsring

• E3. Einheitengruppe, Nachweis der Ringeigenschaften

• E4. Ring der Gaußschen Zahlen, Komplexe Zahlen, Norm, Einheitengrup-


pe

• E5. Ringnachweis, Einheitengruppe

1.4 Vektorräume

• E1. Untersuchung von Untervektorräumen

1.6 Summen von Vektorräumen∗

• E1. Untervektorräume
344 Verzeichnis der Ergänzungsaufgaben

2 Lineare Abbildungen
2.2 Bild, Fasern und Kern, Quotientenvektorräume∗
• E1. Potenzen von Matrizen unter Anwendung eines Computer-Algebra-
Systems (CAS)
2.4 Lineare Abbildungen und Matrizen
• E1. Polynome vom Grad 3, Vektorraum, Basis, Standardbasis, Darstel-
lungsmatrix, Transformationsmatrix
2.5 Multiplikation von Matrizen
• E1. Potenzen von Matrizen, Charakteristik
• E2. Symmetrische Matrizen
• E3. Multiplikation von Matrizen
• E4. Potenz von Matrizen
2.7 Elementarmatrizen und Matrizenumformungen
• E1. Untersuchung auf Invertierbarkeit, ggf. Inverse bestimmen
• E2. Umkehrung der Multiplikation von Matrizen mit Vektoren
• E3. Anwendung von Polynomen auf Matrizen
• E4. Untervektorraum, differenzierbare & trigonometrische Funktion
• E5. Gruppe der Endomorphismen, Polynome
• E6. Satz von Cayley-Hamilton
• E7 und E8. Anwendung von Polynomen auf Matrizen

3 Determinanten
3.1 Beispiele und Definitionen
• E1. Mehrfache Nullstellen von Polynomen
• E2. Beziehung zwischen Polynom und Determinante
Verzeichnis der Ergänzungsaufgaben 345

3.2 Existenz und Eindeutigkeit

• E1. Diskriminante

• E2 und E3. Möbius-Transformation, Determinante, spezielle lineare Grup-


pe und spezielle projektive Gruppe

3.3 Minoren∗

• E1. Komplementäre Matrix

• E2. Berechnung von Determinante

3.4 Determinante eines Endomorphismus und Orientierung∗

• E1. Berechnung von Determinante

4 Eigenwerte
4.1 Beispiele und Definitionen

• E1. Markov-Ketten, Anwendung von CAS

4.2 Das charakteristische Polynom

• E1 und E2. Berechnung von Eigenwerten und Eigenvektoren, Körper der


reellen Zahlen, Körper der komplexen Zahlen

4.3 Diagonalisierung

• E1. Rekursive Folge von Vektoren

4.6 Die Jordansche Normalform∗

• E1. Matrizenauswahl zu Berechnungen


346 Verzeichnis der Ergänzungsaufgaben

5 Euklidische und unitäre Vektorräume


5.4 Bilinearformen und Sesquilinearformen
• E1. Anwendung des Schmidtschen Verfahrens
• E2. Bestimmung von Orthonormalbasen
• E3. Nachweis eines Skalarprodukts
• E4 bis E6. Spur
• E7 bis E11. Lie-Algebra
• E12 bis E14. Quadrik
5.5 Orthogonalität und unitäre Endomorphismen
• E1. Symmetrische Bilinearform
5.6 Selbstadjungierte Endomorphismen∗
• E1 und E2. Anti-selbstadjungierter Endomorphismus
5.7 Hauptachsentransformation∗
• E1. Beweis ähnlich zum Orthonormalisierungssatz
• E2. Hermitescher Endomorphismus, Spur, Zufallsmatrix, Markov-Kette

6 Dualität∗
6.2 Dualität und Skalarprodukte
• E1. Anti-selbstadjungierter Endomorphismus, normaler Endomorphismus
• E2. Anti-selbstadjungierter Endomorphismus, antihermitescher Endomor-
phismus
6.4 Multilineare Algebra∗
• E1 und E2. Nachweis multilinearer Abbildung
• E3. Transformationformel, 1-fach kontravarianter Tensor, 1-fach kovari-
anter Tensor, Einsteinsche Summenkonvention
Verzeichnis der Ergänzungsaufgaben 347

Themenbereiche von Ergänzungsaufgaben


An einigen Stellen in den Ergänzungsaufgaben existieren Sequenzen von Aufga-
ben oder umfangreiche Aufgaben zu bestimmten Themen. Dies bezieht sich auf
folgende Kapitel und Themen:

• 0.5 Geraden und quadratische Funktionen im R2 :


Überblick über Geraden, Kreise, Ellipsen und Hyperbeln

• 1.2 Gruppen:
Elliptische Kurven von Seiten der Codierung und Kryptographie

• 3.2 Existenz und Eindeutigkeit:


Möbius-Transformation

• 4.1 Beispiele und Definitionen, 5.7 Hauptachsentransformation (E2):


Markov-Ketten, Zufallsmatrizen

• 5.4 Bilinearformen und Sesquilinearformen:


Lie-Gruppen, Symmetrie mit Blick in Richtung Quantenmechanik, Qua-
drik

• 6.4 Multilineare Algebra:


Tensoren mit Blick in Richtung Relativitätstheorie

Das könnte Ihnen auch gefallen