Vektoren, Tensoren und Matrizen
Vorbemerkung
In den nächsten drei Abschnitten dieses Tutorials müssen einige mathematische
Fakten diskutiert werden. Wir gehen davon aus, der der Leser über Grundkenntnisse der
Mathematik verfügt, wie sie etwa bis zum Abitur an deutschen Gymnasien vermittelt
werden. Dieses betrifft insbesondere die Differentialrechnung und Integralrechnung mit
einfachen reellen Funktionen. Auch Grundkenntnisse in der Vektorrechnung setzen wir voraus.
Im vorliegenden Abschnitt wiederholen wir die wichtigsten Definitionen und Ergebisse
über Vektoren, Matrizen und Tensoren. Im folgenden beiden Abschnitten diskutieren wir dann
die wichtigsten Grundlagen der Theorie der komplexen Funktionen sowie die Laplace- und
Fourier- Transformation. Weitere darüber hinausgehende mathematische Hilsmittel werden
dann später bei der jeweiligen Anwendung erläutert.
Produkte
Ein allgemeiner Vektor kann in rechtwinkligen Koordinaten dargestellt werden
als
|
(1) |
wobei orthogonale Einheitsvektoren und die die
skalaren Komponenten des Vektors sind. In Analogie dazu definieren
wir Tensoren (zweiter Stufe) durch
|
(2) |
Man beachte hierbei, daß in diesem Ausdruck zwischen den Einheitsvektoren
und keine Produktbildung definiert ist.
Zwischen Vektoren untereinander und zwischen Tensoren und Vektoren werden
zwei verschiedene Produkte definiert, und zwar einmal die Skalarprodukte
|
(3) |
und
|
(4) |
und zum anderen die Vektorprodukte
|
(5) |
und
|
(6) |
Hierbei ist das Kronecker- Symbol,
und
der alternierende Einheitstensor,
Offensichtlich ist das Skalarprodukt zweier Vektoren ein Skalar, das
Skalarprodukt eines Tensors und eines Vektors ein Vektor, das Vektorprodukt
zweier Vektoren ein Vektor sowie das Vektorprodukt eines Tensors mit einem
Vektor ein Tensor.
Bei der Produktbildung zweier Tensoren spielen in den Anwendungen zwei
verschiedene Arten von Skalarprodukten eine gewisse Rolle, und zwar einmal
das einfache Skalarprodukt
|
(7) |
und zum anderen das doppelte Skalarprodukt
|
(8) |
Wir merken uns die Regeln:
Ein in den Anwendungen häufig vorkommender Vektor ist der Nabla- Operator,
den man in kartesischen Koordinaten mit Hilfe der Formel
|
(12) |
definiert. Das Produkt des Nabla- Operators mit einer skalaren Funktion
,
|
(13) |
nennt man auch den Gradienten von . Die Divergenz und Rotation
einer vektoriellen Funktion
werden entsprechend durch
|
(14) |
und
|
(15) |
definiert. Schließlich definieren wir noch den Laplace- Operator
|
(16) |
Krummlinige Koordinaten
Sei
ein Vektor in kartesischen
Koordinaten. Drückt man die skalaren Komponenten durch
irgendwelche anders gewählten Koordinaten aus,
|
(17) |
dann können wir die im Ortsvektor einsetzen und erhalten
In jedem Punkt lassen sich die neuen Einheitsvektoren
definieren,
|
(18) |
wobei die Normierungsfaktoren sind,
Diese Einheitsvektoren zeigen in Richtung von wachsendem entlang
der - Koordinatenlinie.
Spezialfall des 3-dimensionalen Raumes.
Während wir im n-dimensionalen Raum immer mit kartesischen Koordinaten
arbeiten werden, ist es im 3-dimensionalen Raum häufig vorteilhaft,
auf krummlinige Koordinaten überzugehen. Besonders wichtig sind die Zylinder-
und Polar- Koordinaten.
Für Zylinderkoordinaten gilt
Wir identifizieren also , , .
Dann folgt nach (18)
Für Polarkoordinaten gilt entsprechend
und
Ohne Beweis geben wir die Ausdrücke für Gradient, Divergenz, Rotation
und Laplace- Operator an.
Zylinderkoordinaten:
Polarkoordinaten:
Lineare Gleichungssysteme und Matrizen
Ein lineares Gleichungssystem mit Gleichungen und Unbekannten,
schreibt man häufig in der Kurzform
|
(24) |
Man nennt eine Matrix und schreibt
Die Vektoren und werden entsprechend als Spaltenvektoren
geschrieben:
Durch diese Festsetzungen ist die Produktbildung einer Matrix mit einem
Vektor definiert. Im folgenden werden wir uns auf Matrizen
mit Zeilen und Spalten konzentrieren. Die Matrix
mit
nennt man die Einheitsmatrix und
sind die Einheitsvektoren. Die Matrix muß offensichtlich Zeilen und
Spalten besitzen. Die zu transponierte Matrix und der
zu transponierte Zeilenvektor sind durch
gegeben. Man erhält aus durch Vertauschen von Zeilen und
Spalten. Offensichtlich sind die Elemente der Matrix
Wir nennen eine Matrix symmetrisch, wenn
Für eine symmetrische Matrix ist immer . Die zu inverse
Matrix ist durch die Relation
gegeben. Wir definieren weiterhin das Produkt zweier Matrizen
und durch
|
(25) |
sowie die Ableitung und Integration durch
Wir kehren noch einmal zu einem Gleichungssystem mit Gleichungen
und Unbekannten () zurück. Wenn man die Vektoren und
durch die Einheitsvektoren ausdrückt,
dann kann man eine Matrix als Tensor 2. Stufe schreiben,
|
(28) |
Das Skalarprodukt
ergibt dann wieder unser ursprüngliches Gleichungssytem. Das Produkt zweier
Matrizen ist dasselbe wie das einfache Skalarprodukt zweier
Tensoren:
Die Spur einer Matrix ist die Summe ihrer Diagonalelemente,
|
(29) |
Die Spur eines Produktes zweier Matrizen kann durch das doppelte
Skalarprodukt zweier Tensoren ausgedrückt werden:
|
(30) |
Determimanten
Eine weitere wichtige Größe ist die Determinante einer
Matrix. Sie ist definiert durch die Relation
|
(31) |
Dabei durchlaufen die
alle möglichen
Permutationen der Zahlen (1,2,...,n). Das Vorzeichen wird durch die Anzahl
der Inversionen in jeder Permutation bestimmt. So hat z.B. das Glied
in der Determinante einer Matrix
ein negatives Vorzeichen, da
d.h. und somit . Man schreibt die Determinante einer
Matrix auch häufig in der Form
Mit dieser Schreibweise gilt die bekannte Reduktionsformel, gezeigt am
Beispiel einer Matrix:
Diese Regel kann man leicht auf den Fall einer Matrix
ausdehnen. Die Determinante einer Matrix ist
Die Determinanten liefern wertvolle Hinweise für die Lösbarkeit
eines Gleichungssystems:
1. Ist , so besitzt das Gleichungssystem
mit eine und nur eine Lösung.
2. Ist , so ist das Gleichungssystem im allgemeinen nicht
lösbar.
3. Das Gleichungssystem mit ist dann und
nur dann lösbar, wenn .
Der Haken an diesen Aussagen ist nur, daß es, zumindest bei größeren
Gleichungssystemen, nicht einfach ist, die Determinante überhaupt zu
berechnen.
Matrixinversion
Ein lineares Gleichungssystem kann als gelöst betrachtet werden, wenn die
inverse Matrix bekannt ist, da aus
folgt
|
(32) |
Es gibt eine ganze Reihe von außerordentlich gut erarbeiteten Methoden zur
Matrixinversion. Wir können im Rahmen dieses Tutorials nicht auf weitere
Einzelheiten eingehen. Numerische Verfahren werden in späteren Kapiteln mit Hilfe
von Programmbeispielen erläutert.
Differentiation der inversen Matrix kann auf die Differentiation der
ursprünglichen Matrix zurückgeführt werden. Aus
folgt
und damit
|
(33) |
Entsprechend erhält man für die zweite Ableitung
|
(34) |
Man beachte hierbei, daß und im allgemeinen nicht
vertauschbar sind, d.h. also daß
Eigenwerte
Sehr häufig können Gleichungssysteme in der Form
|
(35) |
geschrieben werden. Es erweist sich hierbei, daß diese Gleichung nur für
bestimmte () eine Lösung besitzt.
Man nennt daher die Eigenwerte und die
Eigenvektoren der Matrix . Wir können diese Gleichung umschreiben in
Nach unseren obigen Ausführungen muß daher entweder oder
sein. Wenn man die Determinante entwickelt, erhält
man das charakteristische Polynom
|
(36) |
Hierbei hängen die () noch in bestimmter Weise von den
Elementen der Matrix ab. Die Lösung dieser Gleichung ergibt
die Eigenwerte ().
Beispiel.
Als Beispiel behandeln wir die einfache symmetrische Matrix
Die charakteristische Gleichung ist
Als Lösungen finden wir
mit den Eigenvektoren
Systeme von Differentialgleichungen
Eine Anwendung der Eigenwertgleichungen findet man bei der Lösung von
Differentialgleichungen. Sei
ein System von homogenen Differentialgleichungen 1. Ordnung. Wir schreiben
dieses in der kompakten Form
|
(38) |
Als Lösungsansatz setzen wir
wobei die Exponentialfunktion als Reihenentwicklung definiert ist,
und
der Wert des Lösungsvektors zur Zeit ist. Wir gehen weiter und
diskutieren die inhomogene Gleichung
|
(39) |
Wie man leicht nachrechnen kann, ist
|
(40) |
die allgemeine Lösung der inhomogenen Gleichung. Die Reihenentwicklung
für , die wir, zumindest im Prinzip, bereits als Lösung
anerkennen können, ist jedoch für Rechneranwendungen außerordentlich
ungünstig, da einmal die Matrixmultiplikationen viel Rechenzeit verbrauchen
und zum anderen man nicht von vornherein weiß, bei welchem man mit der
Entwicklung aufhören kann. In jedem Fall muß eine Restgliedabschätzung
durchgeführt werden. Wir wollen daher noch eine weitere Methode diskutieren,
die mit den Eigenwerten und Eigenvektoren der Matrix arbeitet.
Wir nehmen an, daß die Matrix die Eigenvektoren
mit den Eigenwerten
besitzt. Wir bilden eine Matrix
(Tensor) aus diesen Eigenvektoren gemäß
und eine Matrix aus den Eigenwerten gemäß
Dann gilt die folgende wichtige Formel, die wir ohne Beweis angeben:
|
(41) |
Die Matrix kann hierbei ohne Schwierigkeiten berechnet
werden, nämlich durch
Damit ist die Lösung eines Systems von Differentialgleichungen auf die
Berechnung der Eigenwerte und Eigenvektoren der Matrix zurückgeführt
worden.
Harm Fesefeldt
2006-03-31