Vektoren, Tensoren und Matrizen
Vorbemerkung
In den nächsten drei Abschnitten dieses Tutorials müssen einige mathematische Fakten diskutiert werden. Wir gehen davon aus, der der Leser über Grundkenntnisse der Mathematik verfügt, wie sie etwa bis zum Abitur an deutschen Gymnasien vermittelt werden. Dieses betrifft insbesondere die Differentialrechnung und Integralrechnung mit einfachen reellen Funktionen. Auch Grundkenntnisse in der Vektorrechnung setzen wir voraus. Im vorliegenden Abschnitt wiederholen wir die wichtigsten Definitionen und Ergebisse über Vektoren, Matrizen und Tensoren. Im folgenden beiden Abschnitten diskutieren wir dann die wichtigsten Grundlagen der Theorie der komplexen Funktionen sowie die Laplace- und Fourier- Transformation. Weitere darüber hinausgehende mathematische Hilsmittel werden dann später bei der jeweiligen Anwendung erläutert.

Produkte
Ein allgemeiner Vektor kann in rechtwinkligen Koordinaten dargestellt werden als

\begin{displaymath}
\vec{v}= \sum_{i=1}^{n} v_{i} \vec{e}_{i} ,
\end{displaymath} (1)

wobei $\vec{e}_{i}$ orthogonale Einheitsvektoren und die $v_{i}$ die skalaren Komponenten des Vektors $\vec{v}$ sind. In Analogie dazu definieren wir Tensoren (zweiter Stufe) durch
\begin{displaymath}
T = \sum_{i,j=1}^{n} T_{ij} \vec{e}_{i} \vec{e}_{j} .
\end{displaymath} (2)

Man beachte hierbei, daß in diesem Ausdruck zwischen den Einheitsvektoren $\vec{e}_{i}$ und $\vec{e}_{j}$ keine Produktbildung definiert ist. Zwischen Vektoren untereinander und zwischen Tensoren und Vektoren werden zwei verschiedene Produkte definiert, und zwar einmal die Skalarprodukte
\begin{displaymath}
\vec{v} \cdot \vec{w} = \sum_{i,j=1}^{n} v_{i} w_{j} \vec{e}...
...j=1}^{n} v_{i} w_{j} \delta_{ij}
= \sum_{i=1}^{n} v_{i} w_{i}
\end{displaymath} (3)

und
\begin{displaymath}
T \cdot \vec{v} = \sum_{i,j,k=1}^{n} T_{ij} v_{k} \vec{e}_{i...
...{jk} \vec{e}_{i}
= \sum_{i,j=1}^{n} T_{ij} v_{j} \vec{e}_{i} ,
\end{displaymath} (4)

und zum anderen die Vektorprodukte
\begin{displaymath}
\vec{v} \times \vec{w} = \sum_{j,k=1}^{n} v_{j} w_{k} \vec{e...
...k} = \sum_{i,j,k=1}^{n} v_{j} w_{k} \epsilon_{ijk} \vec{e}_{i}
\end{displaymath} (5)

und
\begin{displaymath}
T \times \vec{v} = \sum_{j,k,l=1}^{n} T_{lj} v_{k} \vec{e}_{...
...l=1}^{n} T_{lj} v_{k} \epsilon_{ijk}
\vec{e}_{l} \vec{e}_{i} .
\end{displaymath} (6)

Hierbei ist $\delta_{ij}$ das Kronecker- Symbol,

\begin{displaymath}
\delta_{ij} = \{ \begin{array}{ccc}
1 \; \; & f''ur & \; \; i=j \\ 0 \; \; & f''ur & \; \; i \neq j
\end{array} \end{displaymath}

und $\epsilon_{ijk}$ der alternierende Einheitstensor,

\begin{displaymath}
\epsilon_{ijk} = \{ \begin{array}{rll}
+1 \; \; & f''ur & \;...
...& \; \; ijk=321, 132, 213 \\
0 \; \; & sonst. &
\end{array} \end{displaymath}

Offensichtlich ist das Skalarprodukt zweier Vektoren ein Skalar, das Skalarprodukt eines Tensors und eines Vektors ein Vektor, das Vektorprodukt zweier Vektoren ein Vektor sowie das Vektorprodukt eines Tensors mit einem Vektor ein Tensor.

Bei der Produktbildung zweier Tensoren spielen in den Anwendungen zwei verschiedene Arten von Skalarprodukten eine gewisse Rolle, und zwar einmal das einfache Skalarprodukt

\begin{displaymath}
S \cdot T = \sum_{i,j,k,l=1}^{n} S_{ij} T_{kl} \vec{e}_{i} \...
...{l} = \sum_{i,j,l=1}^{n} S_{ij} T_{jl} \vec{e}_{i}
\vec{e}_{l}
\end{displaymath} (7)

und zum anderen das doppelte Skalarprodukt
\begin{displaymath}
S : T = \sum_{i,j,k,l=1}^{n} S_{ij} T_{kl} \vec{e}_{i} \vec{...
...ec{e}_{i}
\cdot \vec{e}_{l} = \sum_{i,j=1}^{n} S_{ij} T_{ji} .
\end{displaymath} (8)

Wir merken uns die Regeln:
$\displaystyle \vec{e}_{i} \vec{e}_{j} \cdot \vec{e}_{k}$ $\textstyle =$ $\displaystyle \delta_{jk} \vec{e}_{i}$ (9)
$\displaystyle \vec{e}_{i} \vec{e}_{j} \cdot \vec{e}_{k} \vec{e}_{l}$ $\textstyle =$ $\displaystyle \delta_{jk}
\vec{e}_{i} \vec{e}_{l}$ (10)
$\displaystyle \vec{e}_{i} \vec{e}_{j} : \vec{e}_{k} \vec{e}_{l}$ $\textstyle =$ $\displaystyle \delta_{jk} \delta_{il}.$ (11)

Ein in den Anwendungen häufig vorkommender Vektor ist der Nabla- Operator, den man in kartesischen Koordinaten mit Hilfe der Formel
\begin{displaymath}
\nabla = \sum_{i=1}^{n} \vec{e}_{i} \frac{\partial}{\partial x_{i}}
\end{displaymath} (12)

definiert. Das Produkt des Nabla- Operators mit einer skalaren Funktion $s(\vec{x})$,
\begin{displaymath}
\nabla s = \sum_{i=1}^{n} \vec{e}_{i} \frac{\partial s}{\partial x_{i}},
\end{displaymath} (13)

nennt man auch den Gradienten von $s(\vec{x})$. Die Divergenz und Rotation einer vektoriellen Funktion $\vec{v}(\vec{x})$ werden entsprechend durch
\begin{displaymath}
\nabla \cdot \vec{v} = \sum_{i=1}^{n} \frac{\partial v_{i}}{\partial x_{i}}
\end{displaymath} (14)

und
\begin{displaymath}
\nabla \times \vec{v} = \sum_{i,j,k=1}^{n} \epsilon_{ijk} \vec{e}_{i}
\frac{\partial v_{k}}{\partial x_{j}}
\end{displaymath} (15)

definiert. Schließlich definieren wir noch den Laplace- Operator
\begin{displaymath}
\triangle s = \nabla \cdot \nabla s = \sum_{i=1}^{n}
\frac{\partial^{2} s}{\partial x_{i}^{2}}.
\end{displaymath} (16)

Krummlinige Koordinaten
Sei $\vec{x} = \sum_{i=1}^{n} x_{i} \vec{e}_{i}$ ein Vektor in kartesischen Koordinaten. Drückt man die skalaren Komponenten $x_{i}$ durch irgendwelche anders gewählten Koordinaten $q_{j}$ aus,

\begin{displaymath}
x_{i} = x_{i}(q_{1},q_{2},...,q_{n}), \; \; i=1,2,...,n,
\end{displaymath} (17)

dann können wir die $x_{i}$ im Ortsvektor einsetzen und erhalten

\begin{displaymath}
\vec{x} = \sum_{i=1}^{n} x_{i}(q_{1},q_{2},...,q_{n}) \vec{e}_{i}.
\end{displaymath}

In jedem Punkt $\vec{q}$ lassen sich die neuen Einheitsvektoren $\vec{e}_{q_{j}}$ definieren,
\begin{displaymath}
\vec{e}_{q_{j}} = \frac{1}{h_{j}} \frac{\partial \vec{x}}{\p...
..._{i=1}^{n} \frac{\partial x_{i}}{\partial q_{j}}
\vec{e}_{i} ,
\end{displaymath} (18)

wobei $h_{j}$ die Normierungsfaktoren sind,

\begin{displaymath}
h_{j} = \vert \frac{\partial \vec{x}}{\partial q_{j}} \vert ...
...{\sum_{i=1}^{n} (\frac{\partial x_{i}}{\partial q_{j}})^{2}} .
\end{displaymath}

Diese Einheitsvektoren zeigen in Richtung von wachsendem $q_{j}$ entlang der $q_{j}$- Koordinatenlinie.

Spezialfall des 3-dimensionalen Raumes.
Während wir im n-dimensionalen Raum immer mit kartesischen Koordinaten arbeiten werden, ist es im 3-dimensionalen Raum häufig vorteilhaft, auf krummlinige Koordinaten überzugehen. Besonders wichtig sind die Zylinder- und Polar- Koordinaten.

Für Zylinderkoordinaten gilt

$\displaystyle x_{1}$ $\textstyle =$ $\displaystyle \rho cos \phi$  
$\displaystyle x_{2}$ $\textstyle =$ $\displaystyle \rho sin \phi$ (19)
$\displaystyle x_{3}$ $\textstyle =$ $\displaystyle z .$  

Wir identifizieren also $q_{1}=\rho$, $q_{2} = \phi$, $q_{3} = z$. Dann folgt nach (18)
$\displaystyle \vec{e}_{\rho}$ $\textstyle =$ $\displaystyle + \vec{e}_{1} cos\phi + \vec{e}_{2} sin\phi$  
$\displaystyle \vec{e}_{\phi}$ $\textstyle =$ $\displaystyle - \vec{e}_{1} sin\phi + \vec{e}_{2} cos\phi$ (20)
$\displaystyle \vec{e}_{z}$ $\textstyle =$ $\displaystyle + \vec{e}_{3}.$  

Für Polarkoordinaten gilt entsprechend
$\displaystyle x_{1}$ $\textstyle =$ $\displaystyle r sin\theta cos\phi$  
$\displaystyle x_{2}$ $\textstyle =$ $\displaystyle r sin\theta sin\phi$ (21)
$\displaystyle x_{3}$ $\textstyle =$ $\displaystyle r cos\theta$  

und
$\displaystyle \vec{e}_{r}$ $\textstyle =$ $\displaystyle \vec{e}_{1} sin\theta cos\phi + \vec{e}_{2} sin\theta sin\phi
+ \vec{e}_{3} cos\theta$  
$\displaystyle \vec{e}_{\theta}$ $\textstyle =$ $\displaystyle \vec{e}_{1} cos\theta cos\phi
+ \vec{e}_{2} cos\theta sin\phi - \vec{e}_{3} sin\theta$ (22)
$\displaystyle \vec{e}_{\phi}$ $\textstyle =$ $\displaystyle \vec{e}_{1} sin\phi + \vec{e}_{2} cos\phi.$  

Ohne Beweis geben wir die Ausdrücke für Gradient, Divergenz, Rotation und Laplace- Operator an.
Zylinderkoordinaten:

\begin{displaymath}
\nabla s = \vec{e}_{\rho} \frac{\partial s}{\partial \rho}
+...
...s}{\partial \phi}
+ \vec{e}_{z} \frac{\partial s}{\partial z}
\end{displaymath}


\begin{displaymath}
\nabla \cdot \vec{v} = \frac{1}{\rho}
\frac{\partial (\rho ...
...v_{\phi}}{\partial \phi}
+ \frac{\partial v_{z}}{\partial z}
\end{displaymath}


\begin{displaymath}
\nabla \times \vec{v} = \frac{1}{\rho} \left\vert
\begin{ar...
... \\ v_{\rho} & \rho v_{\phi} & v_{z}
\end{array} \right\vert
\end{displaymath}


\begin{displaymath}
\triangle s = \frac{1}{\rho} \frac{\partial}{\partial \rho}
...
...{\partial \phi^{2}}
+ \frac{\partial^{2} s}{\partial z^{2}}.
\end{displaymath}

Polarkoordinaten:

\begin{displaymath}
\nabla s = \vec{e}_{r} \frac{\partial s}{\partial r} + \vec{...
...\phi}
\frac{1}{r sin\theta} \frac{\partial s}{\partial \phi}
\end{displaymath}


\begin{displaymath}
\nabla \cdot \vec{v} = \frac{1}{r^{2}}
\frac{\partial (r^{2...
...\frac{1}{r sin\theta} \frac{\partial v_{\phi}}{\partial \phi}
\end{displaymath}


\begin{displaymath}
\nabla \times \vec{v} = \frac{1}{r^{2} sin\theta} \left\vert...
...& r v_{\theta} & r v_{\phi} sin\theta \end{array} \right\vert
\end{displaymath}


\begin{displaymath}
\triangle s = \frac{1}{r^{2}} \frac{\partial}{\partial r}
(...
...1}{r^{2} sin\theta}
\frac{\partial^{2} s}{\partial \phi^{2}}.
\end{displaymath}

Lineare Gleichungssysteme und Matrizen
Ein lineares Gleichungssystem mit $m$ Gleichungen und $n$ Unbekannten,

$\displaystyle a_{11} x_{1} + a_{12} x_{2} + ... + a_{1n} x_{n}$ $\textstyle =$ $\displaystyle b_{1}$  
$\displaystyle a_{21} x_{1} + a_{22} x_{2} + ... + a_{2n} x_{n}$ $\textstyle =$ $\displaystyle b_{2}$  
$\displaystyle .$ $\textstyle .$    
$\displaystyle .$ $\textstyle .$   (23)
$\displaystyle .$ $\textstyle .$    
$\displaystyle a_{m1} x_{1} + a_{m2} x_{2} + ... + a_{mn} x_{n}$ $\textstyle =$ $\displaystyle b_{m} ,$  

schreibt man häufig in der Kurzform
\begin{displaymath}
A \vec{x} = \vec{b} .
\end{displaymath} (24)

Man nennt $A$ eine $n \times m$ Matrix und schreibt

\begin{displaymath}
A = \left( \begin{array}{cccccc}
a_{11} & a_{12} & . & . & ....
...\\
a_{m1} & a_{m2} & . & . & . & a_{mn} \end{array} \right) .
\end{displaymath}

Die Vektoren $\vec{x}$ und $\vec{b}$ werden entsprechend als Spaltenvektoren geschrieben:

\begin{displaymath}
\vec{x} = \left( \begin{array}{c} x_{1} \\ x_{2} \\ . \\ . \...
...ay}{c}
b_{1} \\ b_{2} \\ . \\ . \\ b_{m} \end{array} \right)
\end{displaymath}

Durch diese Festsetzungen ist die Produktbildung einer Matrix mit einem Vektor definiert. Im folgenden werden wir uns auf $n \times n$ Matrizen mit $n$ Zeilen und $n$ Spalten konzentrieren. Die Matrix

\begin{displaymath}
I = \left( \begin{array}{cccccc}
1 & 0 & . & . & . & 0 \\ 0...
.... & . & & & . & . \\ 0 & 0 & . & . & . & 1 \end{array} \right)
\end{displaymath}

mit $a_{ij} = \delta_{ij}$ nennt man die Einheitsmatrix und

\begin{displaymath}
\vec{e}_{1} = \left( \begin{array}{c} 1 \\ 0 \\ . \\ . \\ . ...
...egin{array}{c} 0 \\ 0 \\ . \\ . \\ . \\ 1 \end{array}
\right)
\end{displaymath}

sind die Einheitsvektoren. Die Matrix $I$ muß offensichtlich $n$ Zeilen und $n$ Spalten besitzen. Die zu $A$ transponierte Matrix $A^{T}$ und der zu $\vec{x}$ transponierte Zeilenvektor $\vec{x}^{T}$ sind durch

\begin{displaymath}
A^{T} = \left( \begin{array}{cccccc}
a_{11} & a_{21} & . & ....
...ray} \right), \; \; \;
\vec{x}^{T} = (x_{1},x_{2},...,x_{n})
\end{displaymath}

gegeben. Man erhält $A^{T}$ aus $A$ durch Vertauschen von Zeilen und Spalten. Offensichtlich sind die Elemente der Matrix $A^{T}$

\begin{displaymath}
a_{ij}^{T} = a_{ji}.
\end{displaymath}

Wir nennen eine $n \times n$ Matrix symmetrisch, wenn

\begin{displaymath}
a_{ij} = a_{ji} .
\end{displaymath}

Für eine symmetrische Matrix ist immer $A=A^{T}$. Die zu $A$ inverse Matrix $A^{-1}$ ist durch die Relation

\begin{displaymath}
A^{-1} A = I
\end{displaymath}

gegeben. Wir definieren weiterhin das Produkt zweier Matrizen $A=(a_{ij})$ und $B=(b_{ij})$ durch
\begin{displaymath}
C = (c_{ik}) = A B = \left( \sum_{j=1}^{n} a_{ij} b_{jk} \right) ,
\end{displaymath} (25)

sowie die Ableitung und Integration durch
$\displaystyle \frac{d A(x)}{dx}$ $\textstyle =$ $\displaystyle \left( \frac{d a_{ij}(x)}{dx} \right)$ (26)
$\displaystyle \int dx A(x)$ $\textstyle =$ $\displaystyle \left( \int dx a_{ij}(x) \right)$ (27)

Wir kehren noch einmal zu einem Gleichungssystem mit $n$ Gleichungen und $n$ Unbekannten ($m=n$) zurück. Wenn man die Vektoren $\vec{x}$ und $\vec{b}$ durch die Einheitsvektoren ausdrückt,

\begin{displaymath}
\vec{x} = \sum_{k=1}^{n} x_{k} \vec{e}_{k} , \; \; \;
\vec{b} = \sum_{i=1}^{n} b_{i} \vec{e}_{i} ,
\end{displaymath}

dann kann man eine $n \times n$ Matrix $A$ als Tensor 2. Stufe schreiben,
\begin{displaymath}
A = \sum_{i,j=1}^{n} a_{ij} \vec{e}_{i} \vec{e}_{j} .
\end{displaymath} (28)

Das Skalarprodukt

\begin{displaymath}
A \cdot \vec{x} = \vec{b}
\end{displaymath}

ergibt dann wieder unser ursprüngliches Gleichungssytem. Das Produkt zweier $n \times n$ Matrizen ist dasselbe wie das einfache Skalarprodukt zweier Tensoren:

\begin{displaymath}
A B = A \cdot B .
\end{displaymath}

Die Spur einer $n \times n$ Matrix ist die Summe ihrer Diagonalelemente,
\begin{displaymath}
spur A = \sum_{i=1}^{n} a_{ii}.
\end{displaymath} (29)

Die Spur eines Produktes zweier Matrizen kann durch das doppelte Skalarprodukt zweier Tensoren ausgedrückt werden:
\begin{displaymath}
spur (A B) = \sum_{i,j=1}^{n} a_{ij} b_{ji} = A : B.
\end{displaymath} (30)

Determimanten
Eine weitere wichtige Größe ist die Determinante einer $n \times n$ Matrix. Sie ist definiert durch die Relation

\begin{displaymath}
det A = \sum_{\alpha, \beta,...,\omega} (-1)^{k} a_{1 \alpha}
a_{2 \beta} \cdot \cdot \cdot a_{n \omega} .
\end{displaymath} (31)

Dabei durchlaufen die $\alpha, \beta,..., \omega$ alle $n!$ möglichen Permutationen der Zahlen (1,2,...,n). Das Vorzeichen wird durch die Anzahl $k$ der Inversionen in jeder Permutation bestimmt. So hat z.B. das Glied $a_{13} a_{21} a_{34} a_{42}$ in der Determinante einer $4 \times 4$ Matrix ein negatives Vorzeichen, da

\begin{displaymath}
(3142) \to (1342) \to (1324) \to (1234),
\end{displaymath}

d.h. $k=3$ und somit $(-1)^{k}= -1$. Man schreibt die Determinante einer Matrix $A$ auch häufig in der Form

\begin{displaymath}
det A = \left\vert \begin{array}{cccccc}
a_{11} & a_{12} & ....
...
a_{n1} & a_{n2} & . & . & . & a_{nn} \end{array} \right\vert
\end{displaymath}

Mit dieser Schreibweise gilt die bekannte Reduktionsformel, gezeigt am Beispiel einer $3 \times 3$ Matrix:

\begin{displaymath}
\left\vert \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_...
... a_{21} & a_{22} \\
a_{31} & a_{32} \end{array} \right\vert .
\end{displaymath}

Diese Regel kann man leicht auf den Fall einer $n \times n$ Matrix ausdehnen. Die Determinante einer $2 \times 2$ Matrix ist

\begin{displaymath}
\left\vert \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array}\right\vert = a_{11} a_{22} - a_{12} a_{21} .
\end{displaymath}

Die Determinanten liefern wertvolle Hinweise für die Lösbarkeit eines Gleichungssystems:
1. Ist $det A \neq 0$, so besitzt das Gleichungssystem $A \vec{x} = \vec{b}$ mit $m=n$ eine und nur eine Lösung.
2. Ist $det A=0$, so ist das Gleichungssystem im allgemeinen nicht lösbar.
3. Das Gleichungssystem $A \vec{x} = 0$ mit $\vec{b}= 0$ ist dann und nur dann lösbar, wenn $det A=0$.
Der Haken an diesen Aussagen ist nur, daß es, zumindest bei größeren Gleichungssystemen, nicht einfach ist, die Determinante überhaupt zu berechnen.

Matrixinversion
Ein lineares Gleichungssystem kann als gelöst betrachtet werden, wenn die inverse Matrix $A^{-1}$ bekannt ist, da aus $A \vec{x} = \vec{b}$ folgt

\begin{displaymath}
\vec{x} = A^{-1} \vec{b}.
\end{displaymath} (32)

Es gibt eine ganze Reihe von außerordentlich gut erarbeiteten Methoden zur Matrixinversion. Wir können im Rahmen dieses Tutorials nicht auf weitere Einzelheiten eingehen. Numerische Verfahren werden in späteren Kapiteln mit Hilfe von Programmbeispielen erläutert.

Differentiation der inversen Matrix kann auf die Differentiation der ursprünglichen Matrix zurückgeführt werden. Aus $A^{-1} A = I$ folgt

\begin{displaymath}
\frac{d}{dx} (A^{-1} A) = \frac{dA^{-1}}{dx} A + A^{-1} \frac{dA}{dx} = 0
\end{displaymath}

und damit
\begin{displaymath}
\frac{dA^{-1}}{dx} = - A^{-1} \frac{dA}{dx} A^{-1} .
\end{displaymath} (33)

Entsprechend erhält man für die zweite Ableitung
\begin{displaymath}
\frac{d^{2} A^{-1}}{dx^{2}} = 2 A^{-1} \frac{dA}{dx} A^{-1} \frac{dA}{dx}
A^{-1} - A^{-1} \frac{d^{2} A}{dx^{2}} A^{-1}.
\end{displaymath} (34)

Man beachte hierbei, daß $A^{-1}$ und $\frac{dA}{dx}$ im allgemeinen nicht vertauschbar sind, d.h. also daß

\begin{displaymath}
A^{-1} \frac{dA}{dx} \neq \frac{dA}{dx} A^{-1}.
\end{displaymath}

Eigenwerte
Sehr häufig können Gleichungssysteme in der Form

\begin{displaymath}
A \vec{x} = \lambda \vec{x}
\end{displaymath} (35)

geschrieben werden. Es erweist sich hierbei, daß diese Gleichung nur für bestimmte $\lambda_{i}$ ($i=1,2,...,n$) eine Lösung $\vec{x}_{i}$ besitzt. Man nennt daher $\lambda_{i}$ die Eigenwerte und $\vec{x}_{i}$ die Eigenvektoren der Matrix $A$. Wir können diese Gleichung umschreiben in

\begin{displaymath}
(A - \lambda I) \vec{x} = 0.
\end{displaymath}

Nach unseren obigen Ausführungen muß daher entweder $\vec{x} = 0$ oder $det(A-\lambda I) = 0$ sein. Wenn man die Determinante entwickelt, erhält man das charakteristische Polynom
\begin{displaymath}
det(A- \lambda I) = P(\lambda) = \lambda^{n} + P_{1} \lambda^{n-1}
+ ... + P_{n-1} \lambda + P_{n} = 0.
\end{displaymath} (36)

Hierbei hängen die $P_{i}$ ($i=1,2,..,n$) noch in bestimmter Weise von den Elementen $a_{ij}$ der Matrix $A$ ab. Die Lösung dieser Gleichung ergibt die Eigenwerte $\lambda_{i}$ ($i=1,2,...,n$).

Beispiel. Als Beispiel behandeln wir die einfache symmetrische Matrix

\begin{displaymath}
A = \left( \begin{array}{cc} 1 & 2 \\ 2 & 1 \end{array} \right) .
\end{displaymath}

Die charakteristische Gleichung ist

\begin{displaymath}
det(A- \lambda I) = \left\vert \begin{array}{cc} 1 - \lambda...
...bda
\end{array} \right\vert = \lambda^{2} - 2 \lambda - 3 = 0.
\end{displaymath}

Als Lösungen finden wir

\begin{displaymath}
\lambda_{1} = -1, \; \; \; \lambda_{2} = 3
\end{displaymath}

mit den Eigenvektoren

\begin{displaymath}
\vec{x}_{1} = \left( \begin{array}{r} 1 \\ -1 \end{array} \r...
...{x}_{2} = \left( \begin{array}{r} 1 \\ 1 \end{array} \right) .
\end{displaymath}

Systeme von Differentialgleichungen
Eine Anwendung der Eigenwertgleichungen findet man bei der Lösung von Differentialgleichungen. Sei

$\displaystyle \frac{dy_{1}}{dt}$ $\textstyle =$ $\displaystyle a_{11} y_{1} + a_{12} y_{2} + ... + a_{1n} y_{n}$  
$\displaystyle \frac{dy_{2}}{dt}$ $\textstyle =$ $\displaystyle a_{21} y_{1} + a_{22} y_{2} + ... + a_{2n} y_{n}$ (37)
  $\textstyle .$    
  $\textstyle .$    
  $\textstyle .$    
$\displaystyle \frac{dy_{n}}{dt}$ $\textstyle =$ $\displaystyle a_{n1} y_{1} + a_{n2} y_{2} + ... + a_{nn} y_{n}$  

ein System von homogenen Differentialgleichungen 1. Ordnung. Wir schreiben dieses in der kompakten Form
\begin{displaymath}
\frac{d \vec{y}}{dt} = A \vec{y} .
\end{displaymath} (38)

Als Lösungsansatz setzen wir

\begin{displaymath}
\vec{y} = e^{At} \vec{y}_{0} ,
\end{displaymath}

wobei die Exponentialfunktion als Reihenentwicklung definiert ist,

\begin{displaymath}
e^{At} = \sum_{n=0}^{\infty} \frac{A^{n} t^{n}}{n !} , \; \; \; (A^{0} = I),
\end{displaymath}

und

\begin{displaymath}
\vec{y}_{0} = \vec{y}(t=0)
\end{displaymath}

der Wert des Lösungsvektors zur Zeit $t=0$ ist. Wir gehen weiter und diskutieren die inhomogene Gleichung
\begin{displaymath}
\frac{d \vec{y}}{dt} + A \vec{y} = \vec{x}(t).
\end{displaymath} (39)

Wie man leicht nachrechnen kann, ist
\begin{displaymath}
\vec{y}(t) = e^{-A(t-t_{0})} \vec{y}_{0} + e^{-A(t-t_{0})}
\int_{0}^{t} dt' e^{A(t'-t_{0})} \vec{x}(t')
\end{displaymath} (40)

die allgemeine Lösung der inhomogenen Gleichung. Die Reihenentwicklung für $e^{At}$, die wir, zumindest im Prinzip, bereits als Lösung anerkennen können, ist jedoch für Rechneranwendungen außerordentlich ungünstig, da einmal die Matrixmultiplikationen viel Rechenzeit verbrauchen und zum anderen man nicht von vornherein weiß, bei welchem $n$ man mit der Entwicklung aufhören kann. In jedem Fall muß eine Restgliedabschätzung durchgeführt werden. Wir wollen daher noch eine weitere Methode diskutieren, die mit den Eigenwerten und Eigenvektoren der Matrix $A$ arbeitet.

Wir nehmen an, daß die Matrix $A$ die $n$ Eigenvektoren $\vec{x}_{1}, \vec{x}_{2}, ..., \vec{x}_{n}$ mit den Eigenwerten $\lambda_{1}, \lambda_{2}, ..., \lambda_{n}$ besitzt. Wir bilden eine Matrix (Tensor) $H$ aus diesen Eigenvektoren gemäß

\begin{displaymath}
H = (\vec{x}_{1},\vec{x}_{2},...,\vec{x}_{n})
= \left( \beg...
.... \\
x_{1n} & x_{2n} & . & . & . & x_{nn} \end{array} \right)
\end{displaymath}

und eine Matrix $\Lambda$ aus den Eigenwerten gemäß

\begin{displaymath}
\Lambda = ( \lambda_{i} \delta_{ij}) = \left( \begin{array}{...
... & & . \\
0 & 0 & . & . & . & \lambda_{n} \end{array} \right)
\end{displaymath}

Dann gilt die folgende wichtige Formel, die wir ohne Beweis angeben:
\begin{displaymath}
e^{At} = H e^{\Lambda t} H^{-1}.
\end{displaymath} (41)

Die Matrix $e^{\Lambda t}$ kann hierbei ohne Schwierigkeiten berechnet werden, nämlich durch

\begin{displaymath}
e^{\Lambda t} = (e^{\lambda_{i} t} \delta_{ij}).
\end{displaymath}

Damit ist die Lösung eines Systems von Differentialgleichungen auf die Berechnung der Eigenwerte und Eigenvektoren der Matrix $A$ zurückgeführt worden.



Harm Fesefeldt
2006-03-31