Lineare Algebra

aus Wikipedia, der freien Enzyklopadie
Zur Navigation springen Zur Suche springen

Die lineare Algebra (auch Vektoralgebra ) ist ein Teilgebiet der Mathematik , das sich mit Vektorraumen beschaftigt. Ahnlich wie in anderen Teilgebieten der Mathematik , sind die strukturerhaltenden Abbildungen, welche in der linearen Algebra die linearen Abbildungen sind, von besonderem Interesse. Diese konnen durch Matrizen reprasentiert werden. Die lineare Algebra schließt insbesondere auch die Betrachtung von linearen Gleichungssystemen mit ein.

Vektorraume und deren lineare Abbildungen sind ein wichtiges Hilfsmittel in vielen Bereichen der Mathematik. Außerhalb der reinen Mathematik finden sich Anwendungen unter anderem in den Naturwissenschaften , in der Informatik und in der Wirtschaftswissenschaft (zum Beispiel in der Optimierung ).

Die lineare Algebra entstand aus zwei konkreten Anforderungen heraus: einerseits dem Losen von linearen Gleichungssystemen, andererseits der rechnerischen Beschreibung geometrischer Objekte, der sogenannten analytischen Geometrie (daher bezeichnen manche Autoren lineare Algebra als lineare Geometrie ).

Die Anfange der Algebra und somit auch der Begriff selbst gehen weitestgehend auf den persisch- choresmischen Mathematiker , Astronomen , Geographen und Universalgelehrten Al-Chwarizmi zuruck, der aufgrund der Islamisierung im Iran seine Werke ins Arabische ubersetzen musste und so auf den Namen ?al-jabr“ kam. Daraus leitet sich der Begriff der Algebra her. [1]

Wahrend die Entwicklung der Algebra bereits im alten Agypten begann, entstand die lineare Algebra als eigenstandiges Teilgebiet erst im 17. Jahrhundert mit der Theorie der Determinante . Die Entwicklung dieser Theorie wurde unabhangig voneinander von Gottfried Wilhelm Leibniz und Seki Takakazu gestartet. Im Jahr 1750 veroffentlichte dann Gabriel Cramer die nach ihm benannte cramersche Regel . Damit war man erstmals im Besitz einer Losungsformel fur viele lineare Gleichungssysteme. [2]

Die Geschichte der modernen linearen Algebra reicht zuruck bis in die Jahre 1843 und 1844. 1843 erdachte William Rowan Hamilton (von dem der Begriff Vektor stammt) mit den Quaternionen eine Erweiterung der komplexen Zahlen . 1844 veroffentlichte Hermann Graßmann sein Buch Die lineale Ausdehnungslehre. Arthur Cayley fuhrte dann 1857 mit den -Matrizen eine der grundlegendsten algebraischen Ideen ein.

Ab dem 20. Jahrhundert befasste man sich dann mehrheitlich mit dem Begriff des Vektorraums . Insbesondere die Mathematiker August Ferdinand Mobius , Constantin Caratheodory und Hermann Weyl leisteten hierfur die Vorarbeit. So wurde beispielsweise festgestellt, dass lineare Abbildungen zwischen endlichdimensionalen Vektorraumen durch Matrizen beschrieben werden konnen. Auf dieser Erkenntnis basierend konnte Stefan Banach als Erster eine axiomatische Definition fur reelle Vektorraume angeben.

Lineare Gleichungssysteme

[ Bearbeiten | Quelltext bearbeiten ]

Als lineares Gleichungssystem bezeichnet man eine Zusammenfassung von Gleichungen der Art

Derartige Gleichungssysteme erhalt man aus vielen alltaglichen Fragestellungen, beispielsweise:

In welchem Verhaltnis muss man eine 30%ige Losung (entspricht ) und eine 60%ige Losung (entspricht ) mischen, um eine 40%ige Losung zu erhalten?

Der wesentliche Abstraktionsschritt der linearen Algebra besteht nun darin, die linken Seiten als eine Funktion der Unbekannten (in diesem Fall die Menge der jeweiligen Losungen) aufzufassen:

Dann wird die Losung des Gleichungssystems zu der Aufgabe: Finde ein , sodass

gilt. Das Ubereinanderschreiben ist dabei lediglich ein Formalismus , um mit mehr als einer Zahl gleichzeitig umgehen zu konnen.

Statt schreibt man auch einfach die relevanten Zahlen in Form eines Rechtecks auf und nennt das Objekt eine Matrix :

Man stellt fest, dass die Funktion spezielle Eigenschaften hat, sie ist eine lineare Abbildung . Ist eine Losung fur das Gleichungssystem , und eine Losung des Gleichungssystems , so ist

eine Losung von . Man kann das auch in der Form schreiben. Ist weiter irgendeine reelle Zahl , so ist ; dabei ist

.

Analytische Geometrie

[ Bearbeiten | Quelltext bearbeiten ]

Der andere Ursprung der linearen Algebra findet sich in der rechnerischen Beschreibung des 2- und 3-dimensionalen (euklidischen) Raumes, auch ?Anschauungsraum“ genannt. Mit Hilfe eines Koordinatensystems konnen Punkte im Raum durch Tripel von Zahlen beschrieben werden. Der Abbildungstyp der Verschiebung fuhrt zum Begriff des Vektors, der Richtung und Betrag der Verschiebung angibt. Viele physikalische Großen , beispielsweise Krafte , haben stets diesen Richtungsaspekt.

Da man auch Vektoren durch Zahlentripel beschreiben kann, verschwimmt die Trennung zwischen Vektoren und Punkten: Einem Punkt entspricht sein Ortsvektor , der vom Koordinatenursprung nach zeigt.

Viele der in der klassischen Geometrie betrachteten Abbildungstypen, beispielsweise Drehungen um Achsen durch den Ursprung oder Spiegelungen an Ebenen durch den Ursprung, gehoren zur Klasse der linearen Abbildungen , die schon oben erwahnt wurde.

Vektorraume und lineare Algebra

[ Bearbeiten | Quelltext bearbeiten ]

Der Begriff des Vektorraumes entsteht als Abstraktion der obigen Beispiele: Ein Vektorraum ist eine Menge, deren Elemente Vektoren genannt werden, zusammen mit

Diese Addition und die Skalarmultiplikation mussen noch einige einfache Eigenschaften erfullen, die auch fur die Vektoren im Anschauungsraum gelten.

Man konnte sagen, dass Vektorraume gerade so definiert sind, dass man von linearen Abbildungen zwischen ihnen sprechen kann.

In gewisser Weise ist der Begriff des Vektorraums fur die lineare Algebra bereits zu allgemein. Jedem Vektorraum ist eine Dimension zugeordnet, beispielsweise hat die Ebene Dimension und der Anschauungsraum die Dimension . Es gibt aber Vektorraume, deren Dimension nicht endlich ist, wodurch viele der bekannten Eigenschaften verloren gehen. Es hat sich aber als sehr erfolgreich erwiesen, unendlichdimensionale Vektorraume mit einer zusatzlichen topologischen Struktur auszustatten; die Untersuchung topologischer Vektorraume ist Gegenstand der Funktionalanalysis .

(Der Rest dieses Artikels beschaftigt sich mit dem Fall endlicher Dimensionen.)

Wichtige Satze und Ergebnisse

[ Bearbeiten | Quelltext bearbeiten ]

Jeder Vektorraum hat (unter der Annahme, dass das Auswahlaxiom gilt,) mindestens eine Basis . Die Basis kann endlich oder unendlich viele Elemente enthalten.

Falls ein Vektorraum eine Basis aus endlich vielen Elementen hat, haben alle Basen dieses Vektorraumes endlich viele Elemente und die Anzahl der Elemente ist fur alle Basen gleich. Falls ein Vektorraum eine Basis aus unendlich vielen Elementen hat, haben alle Basen dieses Vektorraumes unendlich viele Elemente. Deshalb ist es sinnvoll, von der Dimension eines Vektorraumes als die Anzahl der Elemente einer Basis sowie von endlich- und unendlich-dimensionalen Vektorraumen zu sprechen. Fur Summen und Durchschnitte von Untervektorraumen gilt die Dimensionsformel und fur die Dimensionen von Faktorraumen eines endlich-dimensionalen Vektorraumes die Formel .

Jede lineare Abbildung ist durch die Angabe der Bilder einer Basis von eindeutig festgelegt. Fur lineare Abbildungen gelten der Homomorphiesatz und der Rangsatz . Lineare Abbildungen konnen bezuglich fest gewahlter Basen durch Matrizen dargestellt werden. Dabei entspricht der Hintereinanderausfuhrung von linearen Abbildungen die Multiplikation ihrer Darstellungsmatrizen.

Ein lineares Gleichungssystem mit , und ist genau dann losbar, wenn der Rang der Matrix gleich dem Rang der erweiterten Koeffizientenmatrix ist. In diesem Fall ist die Losungsmenge des Systems ein affiner Unterraum von der Dimension . Fur nicht zu große Gleichungssysteme konnen die Rangbestimmung und die Berechnung des Losungsraumes mit dem Gaußschen Eliminationsverfahren durchgefuhrt werden.

Eine lineare Abbildung (also ein Endomorphismus ) eines endlichdimensionalen Vektorraumes ist bereits invertierbar, wenn sie injektiv oder surjektiv ist. Dies ist wiederum genau dann der Fall, wenn ihre Determinante ungleich null ist. Hieraus folgt, dass die Eigenwerte eines Endomorphismus genau die Nullstellen seines charakteristischen Polynoms sind. Eine weitere wichtige Aussage uber das charakteristische Polynom ist der Satz von Cayley-Hamilton .

Ein Endomorphismus (beziehungsweise eine quadratische Matrix) ist genau dann diagonalisierbar , wenn das charakteristische Polynom in Linearfaktoren zerfallt und fur jeden Eigenwert dessen algebraische Vielfachheit gleich der geometrischen Vielfachheit, also die Nullstellenordnung des Eigenwerts im charakteristischen Polynom gleich der Dimension des zugehorigen Eigenraumes ist. Aquivalent dazu ist die Existenz einer Basis des Vektorraumes, die aus Eigenvektoren der linearen Abbildung besteht. Endomorphismen, deren charakteristisches Polynom in Linearfaktoren zerfallt, sind immerhin noch trigonalisierbar , konnen also durch eine Dreiecksmatrix dargestellt werden. Ein etwas tiefer liegendes Ergebnis ist, dass die darstellende Matrix dabei sogar in jordansche Normalform gebracht werden kann.

In Vektorraumen, auf denen zusatzlich ein Skalarprodukt gegeben ist, wird durch eine Norm definiert. In diesen Skalarproduktraumen existieren stets Orthonormalbasen , die etwa durch das Gram-Schmidtsche Orthonormalisierungsverfahren konstruiert werden konnen. Nach dem Projektionssatz kann man in diesen Raumen die Bestapproximation aus einem Untervektorraum durch orthogonale Projektion bestimmen.

Bezuglich der Diagonalisierbarkeit von Endomorphismen in Skalarproduktraumen stellt sich die Frage, ob eine Orthonormalbasis aus Eigenvektoren existiert. Das zentrale Resultat hierzu ist der Spektralsatz . Insbesondere gilt im reellen Fall: Zu jeder symmetrischen Matrix gibt es eine orthogonale Matrix , sodass eine Diagonalmatrix ist. Wendet man dieses Ergebnis auf quadratische Formen an, ergibt sich der Satz von der Hauptachsentransformation .

Auch Bilinearformen und Sesquilinearformen konnen bei fest gewahlten Basen durch Matrizen dargestellt werden. Eine Bilinearform ist genau dann symmetrisch und positiv definit , also ein Skalarprodukt, wenn ihre darstellende Matrix symmetrisch und positiv definit ist. Eine symmetrische Matrix ist genau dann positiv definit, wenn alle ihre Eigenwerte positiv sind. Allgemein gilt fur symmetrische Bilinearformen und hermitesche Sesquilinearformen der Tragheitssatz von Sylvester , der besagt, dass die Anzahl der positiven und negativen Eigenwerte der darstellenden Matrizen nicht von der Wahl der Basis abhangen.

Vektoren und Matrizen

[ Bearbeiten | Quelltext bearbeiten ]

Vektoren endlichdimensionaler Raume konnen durch ihre Komponenten beschrieben werden, die (je nach Anwendung) als Spaltenvektor

oder Zeilenvektor

geschrieben werden. Haufig werden Zeilenvektoren mit einem hochgestellten T fur transponiert , wie , gekennzeichnet.

In der Literatur werden Vektoren auf unterschiedliche Weise von anderen Großen unterschieden: Es werden Kleinbuchstaben, fettgedruckte Kleinbuchstaben, unterstrichene Kleinbuchstaben, Kleinbuchstaben mit einem Pfeil daruber oder kleine Frakturbuchstaben benutzt. Dieser Artikel verwendet Kleinbuchstaben.

Eine Matrix wird durch ein ?Raster“ von Zahlen angegeben. Hier ist eine Matrix mit vier Zeilen und drei Spalten:

Matrizen werden meistens mit Großbuchstaben bezeichnet.

Einzelne Elemente eines Vektors werden bei Spaltenvektoren in der Regel durch einen Index angegeben: Das zweite Element des oben angegebenen Vektors ware dann . In Zeilenvektoren wird manchmal eine Hochzahl verwendet, wobei man aufpassen muss, ob eine Vektorindizierung oder ein Exponent vorliegt: Mit dem obigen Beispiel hat man etwa . Matrixelemente werden durch zwei Indizes angegeben. Dabei werden die Elemente durch Kleinbuchstaben dargestellt: ist das Element in der zweiten Zeile der dritten Spalte (statt ?in der dritten Spalte der zweiten Zeile“, denn so lasst sich leichter lesen).

Der verallgemeinerte Begriff dieser Gebilde ist Tensor , Skalare sind Tensoren nullter Stufe, Vektoren Tensoren erster Stufe, Matrizen Tensoren zweiter Stufe. Ein Tensor -ter Stufe kann durch einen -dimensionalen Zahlenwurfel reprasentiert werden.

Oftmals ist es erforderlich, Matrizen mittels elementarer Zeilenumformungen oder Basiswechsel auf eine spezielle Form zu bringen. Wichtig sind dabei insbesondere die Dreiecksform , die Diagonalform und die jordansche Normalform .

Endomorphismen und quadratische Matrizen

[ Bearbeiten | Quelltext bearbeiten ]

Bei der Darstellung einer linearen Abbildung ? wie unter Matrix beschrieben ? gibt es den Sonderfall einer linearen Abbildung eines endlichdimensionalen Vektorraums auf sich selbst (eines sog. Endomorphismus ). Man kann dann dieselbe Basis fur Urbild- und Bildkoordinaten verwenden und erhalt eine quadratische Matrix , sodass die Anwendung der linearen Abbildung der Linksmultiplikation mit entspricht. Um die Abhangigkeit von und zum Ausdruck zu bringen, verwendet man Schreibweisen wie oder . Die zweimalige Hintereinanderausfuhrung dieser Abbildung entspricht dann der Multiplikation mit usw., und man kann alle polynomialen Ausdrucke mit (Summen von Vielfachen von Potenzen von ) als lineare Abbildungen des Vektorraums auffassen.

Invertierbarkeit

[ Bearbeiten | Quelltext bearbeiten ]

Zu einer invertierbaren Matrix existiert eine inverse Matrix mit . Analog zur Rechenregel bei Zahlen ist die nullte Potenz einer quadratischen Matrix die Diagonalmatrix ( Einheitsmatrix ) mit Einsen auf der Diagonalen und in der alle restlichen Elemente Null sind, sie entspricht der Identitatsabbildung jedes Vektors auf sich selbst. Negative Potenzen einer quadratischen Matrix lassen sich nur berechnen, wenn die durch gegebene lineare Abbildung invertierbar ist, also keine zwei unterschiedlichen Vektoren und auf denselben Vektor abbildet. Anders ausgedruckt, muss fur eine invertierbare Matrix aus stets folgen, das lineare Gleichungssystem darf also nur die Losung haben.

Eine Determinante ist eine spezielle Funktion, die einer quadratischen Matrix eine Zahl zuordnet. Diese Zahl gibt Auskunft uber einige Eigenschaften der Matrix. Beispielsweise lasst sich an ihr erkennen, ob eine Matrix invertierbar ist. Eine weitere wichtige Anwendung ist die Berechnung des charakteristischen Polynoms und damit der Eigenwerte der Matrix.

Es gibt geschlossene Formeln zur Berechnung der Determinanten, wie den Laplace’schen Entwicklungssatz oder die Leibniz-Formel . Diese Formeln sind jedoch eher von theoretischem Wert, da ihr Aufwand bei großeren Matrizen stark ansteigt. In der Praxis kann man Determinanten am leichtesten berechnen, indem man die Matrix mit Hilfe des Gauß-Algorithmus in obere oder untere Dreiecksform bringt, die Determinante ist dann einfach das Produkt der Hauptdiagonalelemente .

Obige Begriffe sollen an einem durch die Fibonacci-Folge motivierten Beispiel verdeutlicht werden.

Berechnung von Potenzen mittels Diagonalisierung

[ Bearbeiten | Quelltext bearbeiten ]

Die Fibonacci-Folge ist rekursiv durch die Gleichungen , und fur definiert, was gleichbedeutend ist mit

und

,

woraus durch Iteration die nichtrekursive Formel

folgt, in der die -te Potenz einer Matrix vorkommt.

Das Verhalten einer solchen Matrix bei Potenzierung ist nicht leicht zu erkennen; hingegen wird die -te Potenz einer Diagonalmatrix einfach durch Potenzierung jedes einzelnen Diagonaleintrags berechnet. Wenn es nun eine invertierbare Matrix gibt, sodass Diagonalform hat, lasst sich die Potenzierung von auf die Potenzierung einer Diagonalmatrix zuruckfuhren gemaß der Gleichung (die linke Seite dieser Gleichung ist dann die -te Potenz einer Diagonalmatrix). Allgemein lasst sich durch Diagonalisierung einer Matrix ihr Verhalten (bei Potenzierung, aber auch bei anderen Operationen) leichter erkennen.

Fasst man als Matrix einer linearen Abbildung auf, so ist die Transformationsmatrix die Basiswechselmatrix zu einer anderen Basis , also (wobei die Identitatsabbildung jeden Vektor auf sich selbst abbildet). Dann ist namlich .

Im oben genannten Beispiel lasst sich eine Transformationsmatrix finden, sodass

eine Diagonalmatrix ist, in der der goldene Schnitt vorkommt. Hieraus erhalt man schließlich die Formel von Binet :

Wie kommt man von der Matrix auf die Zahl ? An der Diagonalmatrix erkennt man sofort

,

dass es also einen Vektor ungleich Null gibt, der durch Multiplikation mit der Diagonalmatrix komponentenweise vervielfacht (genauer: ver- -facht) wird: . Die Zahl heißt wegen dieser Eigenschaft ein Eigenwert der Matrix (mit Eigenvektor ). Im Fall von Diagonalmatrizen sind die Eigenwerte gleich den Diagonaleintragen.

ist aber auch zugleich Eigenwert der ursprunglichen Matrix (mit Eigenvektor , denn ), die Eigenwerte bleiben bei Transformation der Matrix also unverandert. Die Diagonalform der Matrix ergibt sich demnach aus deren Eigenwerten, und um die Eigenwerte von zu finden, muss man untersuchen, fur welche Zahlen das lineare Gleichungssystem eine von Null verschiedene Losung hat (oder, anders ausgedruckt, die Matrix nicht invertierbar ist).

Die gesuchten Zahlen sind genau diejenigen, die die Determinante der Matrix zu Null machen. Diese Determinante ist ein polynomialer Ausdruck in (das sogenannte charakteristische Polynom von ); im Falle der oben genannten 2×2-Matrix ergibt dies die quadratische Gleichung mit den beiden Losungen und . Die zugehorigen Eigenvektoren sind Losungen der linearen Gleichungssysteme beziehungsweise , sie bilden dann die Spalten der Transformationsmatrix .

Diagonalisierbarkeit

[ Bearbeiten | Quelltext bearbeiten ]

Ob eine Matrix diagonalisierbar ist, hangt vom verwendeten Zahlbereich ab. ist zum Beispiel uber den rationalen Zahlen nicht diagonalisierbar, weil die Eigenwerte und irrationale Zahlen sind. Die Diagonalisierbarkeit kann aber auch unabhangig vom Zahlbereich scheitern, wenn nicht ?genugend“ Eigenwerte vorhanden sind; so hat etwa die Jordanform-Matrix

nur den Eigenwert (als Losung der quadratischen Gleichung ) und ist nicht diagonalisierbar. Bei genugend großem Zahlbereich (zum Beispiel uber den komplexen Zahlen ) lasst sich aber jede Matrix diagonalisieren oder in Jordansche Normalform transformieren.

Da die Transformation einer Matrix dem Basiswechsel einer linearen Abbildung entspricht, besagt diese letzte Aussage, dass man zu einer linearen Abbildung bei genugend großem Zahlbereich stets eine Basis wahlen kann, die ?auf einfache Weise“ abgebildet wird: Im Fall der Diagonalisierbarkeit wird jeder Basisvektor auf ein Vielfaches von sich abgebildet (ist also ein Eigenvektor); im Fall der Jordanform auf ein Vielfaches von sich plus evtl. den vorigen Basisvektor. Diese Theorie der linearen Abbildung lasst sich auf Korper verallgemeinern, die nicht ?genugend groß“ sind; in ihnen mussen neben der Jordanform andere Normalformen betrachtet werden (zum Beispiel die Frobenius-Normalform ).

Wikibooks: Lineare Algebra  ? Lern- und Lehrmaterialien
Commons : Lineare Algebra  ? Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

[ Bearbeiten | Quelltext bearbeiten ]
  1. John Stillwell: Mathematics and Its History . Springer, New York, NY 2010, ISBN 978-1-4419-6052-8 , S.   88?89 , doi : 10.1007/978-1-4419-6053-5_6 .
  2. Heinz-Wilhelm Alten : 4000 Jahre Algebra. Geschichte, Kulturen, Menschen . Springer, Berlin u. a. 2003, ISBN 3-540-43554-9 , S.   335?339 .