Die
lineare Algebra
(auch
Vektoralgebra
) ist ein
Teilgebiet der Mathematik
, das sich mit
Vektorraumen
beschaftigt. Ahnlich wie in anderen
Teilgebieten der Mathematik
, sind die strukturerhaltenden Abbildungen, welche in der linearen Algebra die
linearen Abbildungen
sind, von besonderem Interesse. Diese konnen durch
Matrizen
reprasentiert werden. Die lineare Algebra schließt insbesondere auch die Betrachtung von
linearen Gleichungssystemen
mit ein.
Vektorraume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen unter anderem in den
Naturwissenschaften
, in der
Informatik
und in der
Wirtschaftswissenschaft
(zum Beispiel in der
Optimierung
).
Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: einerseits dem Losen von linearen Gleichungssystemen, andererseits der rechnerischen Beschreibung geometrischer Objekte, der sogenannten
analytischen Geometrie
(daher bezeichnen manche Autoren lineare Algebra als
lineare Geometrie
).
Die Anfange der
Algebra
und somit auch der Begriff selbst gehen weitestgehend auf den persisch-
choresmischen
Mathematiker
,
Astronomen
,
Geographen
und
Universalgelehrten
Al-Chwarizmi
zuruck, der aufgrund der Islamisierung im Iran seine Werke ins Arabische ubersetzen musste und so auf den Namen ?al-jabr“ kam. Daraus leitet sich der Begriff der Algebra her.
[1]
Wahrend die Entwicklung der Algebra bereits im alten Agypten begann, entstand die lineare Algebra als eigenstandiges Teilgebiet erst im 17. Jahrhundert mit der Theorie der
Determinante
. Die Entwicklung dieser Theorie wurde unabhangig voneinander von
Gottfried Wilhelm Leibniz
und
Seki Takakazu
gestartet. Im Jahr 1750 veroffentlichte dann
Gabriel Cramer
die nach ihm benannte
cramersche Regel
. Damit war man erstmals im Besitz einer Losungsformel fur viele lineare Gleichungssysteme.
[2]
Die Geschichte der modernen linearen Algebra reicht zuruck bis in die Jahre 1843 und 1844. 1843 erdachte
William Rowan Hamilton
(von dem der Begriff
Vektor
stammt) mit den
Quaternionen
eine Erweiterung der
komplexen Zahlen
. 1844 veroffentlichte
Hermann Graßmann
sein Buch
Die lineale Ausdehnungslehre.
Arthur Cayley
fuhrte dann 1857 mit den
-Matrizen eine der grundlegendsten algebraischen Ideen ein.
Ab dem 20. Jahrhundert befasste man sich dann mehrheitlich mit dem Begriff des
Vektorraums
. Insbesondere die Mathematiker
August Ferdinand Mobius
,
Constantin Caratheodory
und
Hermann Weyl
leisteten hierfur die Vorarbeit. So wurde beispielsweise festgestellt, dass
lineare Abbildungen
zwischen endlichdimensionalen Vektorraumen durch
Matrizen
beschrieben werden konnen. Auf dieser Erkenntnis basierend konnte
Stefan Banach
als Erster eine axiomatische Definition fur reelle Vektorraume angeben.
Als
lineares Gleichungssystem
bezeichnet man eine Zusammenfassung von Gleichungen der Art
![{\displaystyle x_{1}+x_{2}=1}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4d55dfda3a46f225300e83a6bc95b3112da9180c)
![{\displaystyle 3x_{1}+6x_{2}=4}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53f05667ec721a7a7f65172d8a25cb7ce3d195b9)
Derartige Gleichungssysteme erhalt man aus vielen alltaglichen Fragestellungen, beispielsweise:
- In welchem Verhaltnis muss man eine 30%ige
Losung
(entspricht
) und eine 60%ige Losung (entspricht
) mischen, um eine 40%ige Losung zu erhalten?
Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin, die linken Seiten als eine
Funktion
der Unbekannten
(in diesem Fall die Menge der jeweiligen Losungen) aufzufassen:
![{\displaystyle A(x)={\begin{pmatrix}x_{1}+x_{2}\\3x_{1}+6x_{2}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8da05484eb3c26e29c556589dd6e27db74057816)
Dann wird die Losung des Gleichungssystems zu der Aufgabe: Finde ein
, sodass
![{\displaystyle A(x)={\begin{pmatrix}1\\4\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5c783147f1d1bdd4dfcf7341acc26a8735578b8a)
gilt. Das Ubereinanderschreiben ist dabei lediglich ein
Formalismus
, um mit mehr als einer Zahl gleichzeitig umgehen zu konnen.
Statt
schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine
Matrix
:
![{\displaystyle A={\begin{pmatrix}1&1\\3&6\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/693e2292018a2f50fc19c55397c59c038b78cfc2)
Man stellt fest, dass die Funktion
spezielle Eigenschaften hat, sie ist eine
lineare Abbildung
. Ist
eine Losung fur das Gleichungssystem
, und
eine Losung des Gleichungssystems
, so ist
![{\displaystyle z=x+y={\begin{pmatrix}x_{1}+y_{1}\\x_{2}+y_{2}\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/935091b1424bf2c733a9071a1b646ea9ba34486d)
eine Losung von
. Man kann das auch in der Form
schreiben. Ist weiter
irgendeine
reelle Zahl
, so ist
; dabei ist
.
Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2- und 3-dimensionalen (euklidischen) Raumes, auch ?Anschauungsraum“ genannt. Mit Hilfe eines
Koordinatensystems
konnen Punkte im Raum durch Tripel
von Zahlen beschrieben werden. Der Abbildungstyp der
Verschiebung
fuhrt zum Begriff des
Vektors,
der Richtung und Betrag der Verschiebung angibt. Viele
physikalische Großen
, beispielsweise
Krafte
, haben stets diesen Richtungsaspekt.
Da man auch Vektoren durch Zahlentripel
beschreiben kann, verschwimmt die Trennung zwischen Vektoren und Punkten: Einem Punkt
entspricht sein
Ortsvektor
,
der vom Koordinatenursprung nach
zeigt.
Viele der in der klassischen Geometrie betrachteten Abbildungstypen, beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung, gehoren zur Klasse der
linearen Abbildungen
, die schon oben erwahnt wurde.
Der Begriff des
Vektorraumes
entsteht als Abstraktion der obigen Beispiele: Ein Vektorraum ist eine Menge, deren Elemente Vektoren genannt werden, zusammen mit
Diese Addition und die Skalarmultiplikation mussen noch einige einfache Eigenschaften erfullen, die auch fur die Vektoren im Anschauungsraum gelten.
Man konnte sagen, dass Vektorraume gerade so definiert sind, dass man von linearen Abbildungen zwischen ihnen sprechen kann.
In gewisser Weise ist der Begriff des Vektorraums fur die lineare Algebra bereits zu allgemein. Jedem Vektorraum ist eine
Dimension
zugeordnet, beispielsweise hat die Ebene Dimension
und der Anschauungsraum die Dimension
. Es gibt aber Vektorraume, deren Dimension nicht endlich ist, wodurch viele der bekannten Eigenschaften verloren gehen. Es hat sich aber als sehr erfolgreich erwiesen, unendlichdimensionale Vektorraume mit einer zusatzlichen
topologischen Struktur
auszustatten; die Untersuchung
topologischer Vektorraume
ist Gegenstand der
Funktionalanalysis
.
(Der Rest dieses Artikels beschaftigt sich mit dem Fall endlicher Dimensionen.)
Jeder Vektorraum hat (unter der Annahme, dass das
Auswahlaxiom
gilt,) mindestens eine
Basis
. Die Basis kann endlich oder unendlich viele Elemente enthalten.
Falls ein Vektorraum eine Basis aus endlich vielen Elementen hat, haben alle Basen dieses Vektorraumes endlich viele Elemente und die Anzahl der Elemente ist fur alle Basen gleich. Falls ein Vektorraum eine Basis aus unendlich vielen Elementen hat, haben alle Basen dieses Vektorraumes unendlich viele Elemente. Deshalb ist es sinnvoll, von der Dimension eines Vektorraumes als die Anzahl der Elemente einer Basis sowie von endlich- und unendlich-dimensionalen Vektorraumen zu sprechen. Fur Summen und Durchschnitte von
Untervektorraumen
gilt die
Dimensionsformel
und fur die Dimensionen von
Faktorraumen
eines endlich-dimensionalen Vektorraumes
die Formel
.
Jede lineare Abbildung
ist durch die Angabe der Bilder einer Basis von
eindeutig festgelegt. Fur lineare Abbildungen gelten der
Homomorphiesatz
und der
Rangsatz
. Lineare Abbildungen konnen bezuglich fest gewahlter Basen durch Matrizen
dargestellt
werden. Dabei entspricht der Hintereinanderausfuhrung von linearen Abbildungen die
Multiplikation
ihrer Darstellungsmatrizen.
Ein lineares Gleichungssystem
mit
,
und
ist genau dann losbar, wenn der
Rang
der Matrix
gleich dem Rang der erweiterten Koeffizientenmatrix
ist. In diesem Fall ist die Losungsmenge des Systems ein
affiner Unterraum
von
der Dimension
. Fur nicht zu große Gleichungssysteme konnen die Rangbestimmung und die Berechnung des Losungsraumes mit dem
Gaußschen Eliminationsverfahren
durchgefuhrt werden.
Eine lineare Abbildung
(also ein
Endomorphismus
) eines endlichdimensionalen Vektorraumes
ist bereits invertierbar, wenn sie injektiv
oder
surjektiv ist. Dies ist wiederum genau dann der Fall, wenn ihre
Determinante
ungleich null ist. Hieraus folgt, dass die
Eigenwerte
eines Endomorphismus genau die Nullstellen seines
charakteristischen Polynoms
sind. Eine weitere wichtige Aussage uber das charakteristische Polynom ist der
Satz von Cayley-Hamilton
.
Ein Endomorphismus (beziehungsweise eine quadratische Matrix) ist genau dann
diagonalisierbar
, wenn das charakteristische Polynom in Linearfaktoren zerfallt und fur jeden Eigenwert dessen algebraische Vielfachheit gleich der geometrischen Vielfachheit, also die Nullstellenordnung des Eigenwerts im charakteristischen Polynom gleich der Dimension des zugehorigen
Eigenraumes
ist. Aquivalent dazu ist die Existenz einer Basis des Vektorraumes, die aus Eigenvektoren der linearen Abbildung besteht. Endomorphismen, deren charakteristisches Polynom in Linearfaktoren zerfallt, sind immerhin noch
trigonalisierbar
, konnen also durch eine
Dreiecksmatrix
dargestellt werden. Ein etwas tiefer liegendes Ergebnis ist, dass die darstellende Matrix dabei sogar in
jordansche Normalform
gebracht werden kann.
In Vektorraumen, auf denen zusatzlich ein
Skalarprodukt
gegeben ist, wird durch
eine
Norm
definiert. In diesen
Skalarproduktraumen
existieren stets
Orthonormalbasen
, die etwa durch das
Gram-Schmidtsche Orthonormalisierungsverfahren
konstruiert werden konnen. Nach dem
Projektionssatz
kann man in diesen Raumen die
Bestapproximation
aus einem Untervektorraum durch
orthogonale Projektion
bestimmen.
Bezuglich der Diagonalisierbarkeit von Endomorphismen in Skalarproduktraumen stellt sich die Frage, ob eine
Orthonormalbasis
aus Eigenvektoren existiert. Das zentrale Resultat hierzu ist der
Spektralsatz
. Insbesondere gilt im reellen Fall: Zu jeder
symmetrischen Matrix
gibt es eine
orthogonale Matrix
, sodass
eine Diagonalmatrix ist. Wendet man dieses Ergebnis auf
quadratische Formen
an, ergibt sich der Satz von der
Hauptachsentransformation
.
Auch
Bilinearformen
und
Sesquilinearformen
konnen bei fest gewahlten Basen durch Matrizen dargestellt werden. Eine Bilinearform ist genau dann symmetrisch und
positiv definit
, also ein Skalarprodukt, wenn ihre darstellende Matrix symmetrisch und positiv definit ist. Eine symmetrische Matrix ist genau dann positiv definit, wenn alle ihre Eigenwerte positiv sind. Allgemein gilt fur symmetrische Bilinearformen und
hermitesche Sesquilinearformen
der
Tragheitssatz von Sylvester
, der besagt, dass die Anzahl der positiven und negativen Eigenwerte der darstellenden Matrizen nicht von der Wahl der Basis abhangen.
Vektoren endlichdimensionaler Raume konnen durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als
Spaltenvektor
![{\displaystyle \mathbf {a} ={\begin{pmatrix}3\\7\\2\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/16afa8ce4a7b96f4930591c410fc5b38caa6f329)
oder
Zeilenvektor
![{\displaystyle \mathbf {b} ={\begin{pmatrix}4&6&3&7\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3509d645f50b12e43ade7fd30d2a6a34386fe88)
geschrieben werden. Haufig werden Zeilenvektoren mit einem hochgestellten T fur
transponiert
,
wie
, gekennzeichnet.
In der Literatur werden Vektoren auf unterschiedliche Weise von anderen Großen unterschieden: Es werden Kleinbuchstaben, fettgedruckte Kleinbuchstaben, unterstrichene Kleinbuchstaben, Kleinbuchstaben mit einem Pfeil daruber oder kleine
Frakturbuchstaben
benutzt. Dieser Artikel verwendet Kleinbuchstaben.
Eine Matrix wird durch ein ?Raster“ von Zahlen angegeben. Hier ist eine Matrix mit vier Zeilen und drei Spalten:
![{\displaystyle \mathbf {M} ={\begin{pmatrix}8&2&9\\4&8&2\\8&3&7\\5&9&1\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/25f4068ba896425bc390c6a4c23f0246a71db13b)
Matrizen werden meistens mit Großbuchstaben bezeichnet.
Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das zweite Element des oben angegebenen Vektors
ware dann
. In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein
Exponent
vorliegt: Mit dem obigen Beispiel
hat man etwa
. Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt:
ist das Element in der zweiten Zeile der dritten Spalte (statt ?in der dritten Spalte der zweiten Zeile“, denn so lasst sich
leichter lesen).
Der verallgemeinerte Begriff dieser Gebilde ist
Tensor
, Skalare sind Tensoren nullter Stufe, Vektoren Tensoren erster Stufe, Matrizen Tensoren zweiter Stufe. Ein Tensor
-ter Stufe kann durch einen
-dimensionalen Zahlenwurfel reprasentiert werden.
Oftmals ist es erforderlich, Matrizen mittels
elementarer Zeilenumformungen
oder
Basiswechsel
auf eine spezielle Form zu bringen. Wichtig sind dabei insbesondere die
Dreiecksform
, die
Diagonalform
und die
jordansche Normalform
.
Bei der Darstellung einer linearen Abbildung ? wie unter
Matrix
beschrieben ? gibt es den Sonderfall einer linearen Abbildung
eines endlichdimensionalen Vektorraums auf sich selbst (eines sog.
Endomorphismus
). Man kann dann dieselbe Basis
fur Urbild- und Bildkoordinaten verwenden und erhalt eine quadratische Matrix
, sodass die Anwendung der linearen Abbildung der Linksmultiplikation mit
entspricht.
Um die Abhangigkeit von
und
zum Ausdruck zu bringen, verwendet man Schreibweisen wie
oder
. Die zweimalige Hintereinanderausfuhrung dieser Abbildung entspricht dann der Multiplikation mit
usw., und man kann alle polynomialen Ausdrucke mit
(Summen von Vielfachen von Potenzen von
) als lineare Abbildungen des Vektorraums auffassen.
Zu einer invertierbaren Matrix
existiert eine
inverse Matrix
mit
. Analog zur Rechenregel
bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix
(
Einheitsmatrix
) mit Einsen auf der Diagonalen und in der alle restlichen Elemente Null sind, sie entspricht der Identitatsabbildung jedes Vektors auf sich selbst. Negative Potenzen einer quadratischen Matrix
lassen sich nur berechnen, wenn die durch
gegebene lineare Abbildung invertierbar ist, also keine zwei unterschiedlichen Vektoren
und
auf denselben Vektor
abbildet. Anders ausgedruckt, muss fur eine invertierbare Matrix
aus
stets
folgen, das lineare Gleichungssystem
darf also nur die Losung
haben.
Eine Determinante ist eine spezielle Funktion, die einer quadratischen Matrix eine Zahl zuordnet. Diese Zahl gibt Auskunft uber einige Eigenschaften der Matrix. Beispielsweise lasst sich an ihr erkennen, ob eine Matrix invertierbar ist. Eine weitere wichtige Anwendung ist die Berechnung des
charakteristischen Polynoms
und damit der
Eigenwerte
der Matrix.
Es gibt geschlossene Formeln zur Berechnung der Determinanten, wie den
Laplace’schen Entwicklungssatz
oder die
Leibniz-Formel
. Diese Formeln sind jedoch eher von theoretischem Wert, da ihr Aufwand bei großeren Matrizen stark ansteigt. In der Praxis kann man Determinanten am leichtesten berechnen, indem man die Matrix mit Hilfe des
Gauß-Algorithmus
in obere oder untere Dreiecksform bringt, die Determinante ist dann einfach das Produkt der
Hauptdiagonalelemente
.
Obige Begriffe sollen an einem durch die
Fibonacci-Folge
motivierten Beispiel verdeutlicht werden.
Die Fibonacci-Folge
ist rekursiv durch die Gleichungen
,
und
fur
definiert, was gleichbedeutend ist mit
![{\displaystyle {f_{1} \choose f_{0}}={1 \choose 0}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3b7100e98d2af1e8ab1792b369351e228026819)
und
,
woraus durch
Iteration
die nichtrekursive Formel
![{\displaystyle {f_{n+1} \choose f_{n}}={\begin{pmatrix}1&1\\1&0\end{pmatrix}}^{n}\cdot {1 \choose 0}\quad {\text{für}}\quad n\geq 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d23ed7632b825a0f0b1b13cb3e12cffae0d78e4f)
folgt, in der die
-te Potenz einer Matrix
vorkommt.
Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen; hingegen wird die
-te Potenz einer
Diagonalmatrix
einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet. Wenn es nun eine invertierbare Matrix
gibt, sodass
Diagonalform hat, lasst sich die Potenzierung von
auf die Potenzierung einer Diagonalmatrix zuruckfuhren gemaß der Gleichung
(die linke Seite dieser Gleichung ist dann die
-te Potenz einer Diagonalmatrix). Allgemein lasst sich durch
Diagonalisierung
einer Matrix ihr Verhalten (bei Potenzierung, aber auch bei anderen Operationen) leichter erkennen.
Fasst man
als
Matrix einer linearen Abbildung
auf, so ist die Transformationsmatrix
die Basiswechselmatrix zu einer anderen Basis
, also
(wobei die Identitatsabbildung
jeden Vektor auf sich selbst abbildet). Dann ist namlich
.
Im oben genannten Beispiel lasst sich eine Transformationsmatrix
finden, sodass
![{\displaystyle T^{-1}\cdot A\cdot T={\begin{pmatrix}\phi &0\\0&1-\phi \end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/07d4635a4d5c71c4e8e0bfe1c11214543bb3326c)
eine Diagonalmatrix ist, in der der
goldene Schnitt
vorkommt. Hieraus erhalt man schließlich die
Formel von Binet
:
![{\displaystyle f_{n}={\frac {1}{\sqrt {5}}}\cdot \left[\left({\frac {1+{\sqrt {5}}}{2}}\right)^{n}-\left({\frac {1-{\sqrt {5}}}{2}}\right)^{n}\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b5520231f25ad0a3957a1b413a400bd3d7bb7c2)
Wie kommt man von der Matrix
auf die Zahl
? An der Diagonalmatrix erkennt man sofort
,
dass es also einen Vektor
ungleich Null gibt, der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht (genauer: ver-
-facht) wird:
. Die Zahl
heißt wegen dieser Eigenschaft ein
Eigenwert
der Matrix
(mit
Eigenvektor
). Im Fall von Diagonalmatrizen sind die Eigenwerte gleich den Diagonaleintragen.
ist aber auch zugleich Eigenwert der ursprunglichen Matrix
(mit Eigenvektor
, denn
), die Eigenwerte bleiben bei Transformation der Matrix also unverandert. Die Diagonalform der Matrix
ergibt sich demnach aus deren Eigenwerten, und um die Eigenwerte von
zu finden, muss man untersuchen, fur welche Zahlen
das lineare Gleichungssystem
eine von Null verschiedene Losung
hat (oder, anders ausgedruckt, die Matrix
nicht
invertierbar ist).
Die gesuchten Zahlen
sind genau diejenigen, die die Determinante der Matrix
zu Null machen. Diese Determinante ist ein polynomialer Ausdruck in
(das sogenannte
charakteristische Polynom
von
); im Falle der oben genannten 2×2-Matrix
ergibt dies die
quadratische Gleichung
mit den beiden Losungen
und
. Die zugehorigen Eigenvektoren sind Losungen der linearen Gleichungssysteme
beziehungsweise
, sie bilden dann die Spalten der Transformationsmatrix
.
Ob eine Matrix diagonalisierbar ist, hangt vom verwendeten Zahlbereich ab.
ist zum Beispiel uber den
rationalen Zahlen
nicht diagonalisierbar, weil die Eigenwerte
und
irrationale Zahlen sind. Die Diagonalisierbarkeit kann aber auch unabhangig vom Zahlbereich scheitern, wenn nicht ?genugend“ Eigenwerte vorhanden sind; so hat etwa die Jordanform-Matrix
![{\displaystyle {\begin{pmatrix}1&1\\0&1\end{pmatrix}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/01b05f8fde8f699d4b1e646e1fbb0c517ca08da4)
nur den Eigenwert
(als Losung der quadratischen Gleichung
) und ist nicht diagonalisierbar. Bei genugend großem Zahlbereich (zum Beispiel uber den
komplexen Zahlen
) lasst sich aber jede Matrix diagonalisieren oder in
Jordansche Normalform
transformieren.
Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht, besagt diese letzte Aussage, dass man zu einer linearen Abbildung bei genugend großem Zahlbereich stets eine Basis wahlen kann, die ?auf einfache Weise“ abgebildet wird: Im Fall der Diagonalisierbarkeit wird jeder Basisvektor auf ein Vielfaches von sich abgebildet (ist also ein Eigenvektor); im Fall der Jordanform auf ein Vielfaches von sich plus evtl. den vorigen Basisvektor. Diese
Theorie der linearen Abbildung
lasst sich auf
Korper
verallgemeinern, die nicht ?genugend groß“ sind; in ihnen mussen neben der Jordanform andere Normalformen betrachtet werden (zum Beispiel die
Frobenius-Normalform
).
- Howard Anton:
Lineare Algebra.
Spektrum Akademischer Verlag, Heidelberg,
ISBN 978-3-8274-0324-7
.
- Albrecht Beutelspacher
:
Lineare Algebra.
Vieweg-Verlag,
ISBN 978-3-658-02412-3
.
- Siegfried Bosch:
Lineare Algebra.
Springer-Lehrbuch,
ISBN 978-3-540-76437-3
.
- Egbert Brieskorn:
Lineare Algebra und analytische Geometrie.
Band 1, Vieweg-Verlag, 2012,
ISBN 978-3-322-83175-0
.
- Egbert Brieskorn:
Lineare Algebra und analytische Geometrie.
Band 2, Vieweg-Verlag, 1985,
ISBN 978-3-528-08562-9
.
- Theodor Brocker:
Lineare Algebra und Analytische Geometrie.
Birkhauser Verlag,
ISBN 978-3-7643-7144-9
.
- Gerd Fischer
:
Lineare Algebra.
Vieweg-Verlag,
ISBN 978-3-658-03944-8
.
- Gunter Gramlich:
Lineare Algebra.
Carl Hanser Verlag,
ISBN 978-3-446-44140-8
.
- Gunter Gramlich:
Anwendungen der Linearen Algebra.
Carl Hanser Verlag,
ISBN 978-3-446-22655-5
.
- Klaus Janich
:
Lineare Algebra.
Springer-Lehrbuch,
ISBN 978-3-540-75501-2
.
- Hans-Joachim Kowalsky:
Lineare Algebra.
de Gruyter Lehrbuch,
ISBN 978-3-11-017963-7
.
- Burkhard Lenze:
Basiswissen Lineare Algebra.
Springer-Vieweg, 2020,
ISBN 978-3-658-29968-2
.
- Jorg Liesen,
Volker Mehrmann
:
Lineare Algebra
. 3. Auflage. Springer, Berlin, Heidelberg 2021,
ISBN 978-3-662-62741-9
,
doi
:
10.1007/978-3-662-62742-6
.
- Falko Lorenz:
Lineare Algebra.
2 Bande, BI/Spektrum, 2003,
ISBN 3-8274-1406-7
.
- Gilbert Strang
:
Lineare Algebra.
Springer-Lehrbuch,
ISBN 978-0-9802327-7-6
.
- Shafarevich Igor, Remizov Alexey:
Linear Algebra and Geometry.
Springer, 2012,
ISBN 978-3-642-30993-9
.
- ↑
John Stillwell:
Mathematics and Its History
. Springer, New York, NY 2010,
ISBN 978-1-4419-6052-8
,
S.
88?89
,
doi
:
10.1007/978-1-4419-6053-5_6
.
- ↑
Heinz-Wilhelm Alten
:
4000 Jahre Algebra. Geschichte, Kulturen, Menschen
. Springer, Berlin u. a. 2003,
ISBN 3-540-43554-9
,
S.
335?339
.