Zusammenfassung - Bestimmung von Eigenvektoren
Zur Orientierung
Ziel ist es hier, ein Verfahren zur Bestimmung von Eigenvektoren zu entwickeln.
Ein Vektor $\vec{v} \neq \vec{0}$ ist ein Eigenvektor einer quadratischen Matrix $A$ genau dann, wenn es einen reelle Zahl $\lambda$ gibt, so dass folgende Eigenvektorgleichung erfüllt ist:
$A \cdot \vec{v} = \lambda \cdot \vec{v}$
Wir verdeutlichen das Vorgehen zur Bestimmung von Eigenvektoren anhand von $2 \times 2$-Matrizen. Wir betrachten daher folgende Problemsituation:
Geg.:
Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$
Ges.:
Eigenvektoren der Matrix $A$
Beachte, dass sich ein Großteil der Überlegungen zur Bestimmung der Eigenvektoren für $2 \times 2$-Matrizen direkt auf beliebige quadratische Matrizen übertragen lässt.
Umformung der Eigenvektorgleichung
Ausgangspunkt sämtlicher Überlegungen zur Bestimmung von Eigenvektoren ist die Eigenvektorgleichung:
$A \cdot \vec{v} = \lambda \cdot \vec{v}$
Die folgende Übersicht zeigt, wie man diese Eigenvektorgleichung auch anders formulieren und in ein System aus Koordinatengleichungen überführen kann.
Umformung der Eigenvektorgleichung | Erläuterungen |
---|---|
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \lambda \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}}$ | So sind Eigenvektoren festgelegt. |
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}}$ | Die Eiheitsmatrix verändert bei der Multiplikation mit einem Vektor diesen Vektoren nicht. |
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} - \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ | Auf beiden Seiten der Gleichung wird der $\lambda$-Ausdruck subtrahiert. |
$\left[\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} - \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E}\right] \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ | Der Vektor $\vec{v}$ wird ausgeklammert. Das ist erlaubt, da das Distributivgesetz für die Multiplikation von Matrizen / Vektoren gilt. |
$\underbrace{\begin{pmatrix} a - \lambda & b \\ c & d - \lambda \end{pmatrix}}_{A - \lambda \cdot E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ | Die Rechnungen in den eckigen Klammern werden ausgeführt. |
$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ | Die Matrixschreibweise wird in eine Gleichungsschreibweise umgewandet. |
Beachte: Die Umformungsschritte in der Übersicht gelten nicht nur für beliebige $2 \times 2$-Matrizen $A$. Es gilt folgender Zusammenhang für beliebige quadratische Matrizen.
Eigenvektorbedingung
Für eine beliebige quadratische Matrix $A$ gilt: Ein Vektor $\vec{v} \neq \vec{0}$ ist ein Eigenvektor von $A$ genau dann, wenn es einen reelle Zahl $\lambda$ gibt, so dass die folgende Bedingung (mit der zu $A$ passenden Einheitsmatrix $E$) erfüllt ist:
$(A - \lambda \cdot E) \cdot \vec{v} = \vec{0}$
Herleitung einer Eigenwertgleichung – am Beipiel
Die Schritte zur Herleitung einer Eigenwertgleichung sind für beliebige $2 \times 2$-Matrizen mit vielen Fallunterscheidungen verbunden. Wir betrachten daher zuerst eine konkrete $2 \times 2$-Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$. Für diese Matrix erhält man folgende Eigenvektorgleichung in Koordinatenform:
$\begin{array}{lrcrcrcr} [1] &\quad (1 - \lambda) \cdot v_1 & + & 2 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$
Für die weiteren Überlegungen ist die Voraussetzung wichtig, dass ein Eigenvektor kein Nullvektor ist. Wenn $\vec{v} \neq \vec{0}$, dann folgt hieraus, dass im vorliegenden Beispiel $\lambda \neq 1$ und $\lambda \neq 3$ gelten muss. Das sieht man, indem man indirekt schließt: Wenn $\lambda = 1$ gelten würde, dann müsste $v_2 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Um auch noch Gleichung $[2]$ zu erfüllen, müsste dann auch noch $v_1 = 0$ gelten. Hieraus würde dann $\vec{v} = \vec{0}$ folgen. Entsprechend kann man für $\lambda = 3$ argumentieren.
Also: Im vorliegenden Beispiel gilt für Eigenvektoren die Voraussetzung $\lambda \neq 1$ und $\lambda \neq 3$.
Das LGS zur Eigenvektorgleichung wird jetzt mit Hilfe von Äquivalenzumformungen in Stufenform transformiert.
vorgegebenes LGS | $\begin{array}{lrcrcrcr} [1] &\quad (1 - \lambda) \cdot v_1 & + & 2 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$ |
Äquivalenzumformung | $[1] \leftarrow [1] \cdot 4$ |
transformiertes LGS | $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$ |
Äquivalenzumformung | $[2] \leftarrow [2] \cdot (1 - \lambda)$ beachte: $(1 - \lambda) \neq 0$ |
transformiertes LGS | $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & (1 - \lambda) \cdot (3 - \lambda) \cdot v_2 & = & 0 \end{array}$ |
Äquivalenzumformung | $[2] \leftarrow [2] + (-1) \cdot [1]$ |
transformiertes LGS | $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad & & [(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4] \cdot v_2 & = & 0 \end{array}$ |
Damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt, muss die folgende Eigenwertgleichung erfüllt sein:
$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = 0$
Um das einzusehen, kann man wieder indirekt argumentieren: Wenn $(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 \neq 0$ gelten würde, dann müsste $v_2 = 0$ gelten, um Gleichung $[2]$ zu erfüllen. Da $\lambda \neq 1$, müsste dann auch $v_1 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Hieraus würde dann $\vec{v} = \vec{0}$ folgen.
Die Eigenwertgleichung lässt sich jetzt nach der Variablen $\lambda$ lösen. Es gilt:
$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = \lambda^2 - 4\lambda - 5 = (\lambda + 1)\cdot(\lambda - 5)$
Also:
$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = 0$ genau dann, wenn $\lambda = -1$ oder $\lambda = 5$.
Mit der Eigenwertgleichung erhält man somit die Eigenwerte $\lambda = -1$ bzw. $\lambda = 5$ zur Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$.
Herleitung einer Eigenwertgleichung – für beliebige $2 \times 2$-Matrizen
Im Fall beliebiger $2 \times 2$-Matrizen geht man analog zum Beispiel oben vor. Im allgemeinen Fall muss man für einige Umformungsschritte allerdings weitere Voraussetzungen treffen.
Fall 1: Voraussetzung: $c \neq 0$ und $a \neq \lambda$. |
Fall 1: Voraussetzung: $b \neq 0$ und $d \neq \lambda$ |
---|---|
$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ | $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ |
$[1] \leftarrow [1] \cdot c$ $\quad$ Vor.: $c \neq 0$ | $[2] \leftarrow [2] \cdot b$ $\quad$ Vor.: $b \neq 0$ |
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ | $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$ |
$[2] \leftarrow [2] \cdot (a - \lambda)$ $\quad$ Vor.: $(a - \lambda) \neq 0$ | $[1] \leftarrow [1] \cdot (d - \lambda)$ $\quad$ Vor.: $(d - \lambda) \neq 0$ |
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad c \cdot (a - \lambda) \cdot v_1 & + & (a - \lambda) \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$ | $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot (d - \lambda) \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$ |
$[2] \leftarrow [2] + (-1) \cdot [1]$ | $[1] \leftarrow [1] + (-1) \cdot [2]$ |
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad & & [(a - \lambda) \cdot (d - \lambda) - b \cdot c] \cdot v_2 & = & 0 \end{array}$ | $\begin{array}{lrcrcrcr} [1] &\quad [(a - \lambda) \cdot (d - \lambda) - b \cdot c] \cdot v_1 & & & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$ |
Damit $A$ Eigenvektoren mit $\vec{v} \neq \vec{0}$ hat, muss die Bedingung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ erfüllt sein. Um das nachzuweisen, muss man eine ganze Reihe von Fällen durchspielen.
Wir fassen das Ergebnis im folgenden Satz zusammen.
Eigenwertbedingung
Für eine beliebige $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ gilt: Die Eigenwerte von $A$ sind die Lösungen der folgenden Gleichung:
$(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$
Diese Gleichung nennt man auch charakteristischen Gleichung.
Im Kapitel Inverse 2x2-Matrizen wurde die Determinate einer $2 \times 2$-Matrix eingeführt:
Unter der Determinate einer $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ versteht man den Ausdruck $\det(A) = a \cdot d - b \cdot c$.
Die Eigenwertbedingung kann man mit Hilfe der Determinante auch so formulieren:
Eigenwertbedingung
Für eine beliebige $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ gilt: Die Eigenwerte von $A$ sind die Lösungen der folgenden Gleichung:
$\det(A - \lambda \cdot E) = 0$
Beachte: Die Eigenwertbedingung $\det(A - \lambda \cdot E) = 0$ gilt für beliebige quadratische Matrizen $A$. Man muss hierzu die Determinante geeignet für beliebige quadratische Matrizen festlegen.
Bestimmung von Eigenvektoren mit Hilfe von Eigenwerten
Ist $\lambda$ ein Eigenwert von $A$, so erhält man die zugehörigen Eigenvektoren durch Auflösen des LGS nach den Variablen $v_1$ und $v_2$.
$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$
In der Übersicht sind die möglichen Fällen aufgelistet.
Bedingung | Auflösung nach einer Variablen | Eigenvektoren |
---|---|---|
$a \neq \lambda$ |
$[1] \quad v_1 = -\frac{b}{a-\lambda} \cdot v_2$ Einsetzen von $v_1$ in $[2]$ liefert $0 = 0$ |
$\vec{v} = r \cdot \begin{pmatrix} -\frac{b}{a-\lambda} \\ 1 \end{pmatrix}$ mit $r \neq 0$ |
$d \neq \lambda$ |
$[2] \quad v_2 = -\frac{c}{d-\lambda} \cdot v_1$ Einsetzen von $v_2$ in $[1]$ liefert $0 = 0$ |
$\vec{v} = r \cdot \begin{pmatrix} 1 \\ -\frac{c}{d-\lambda} \end{pmatrix}$ mit $r \neq 0$ |
$c \neq 0$ |
$[1] \quad v_1 = -\frac{d - \lambda}{c} \cdot v_2$ Einsetzen von $v_1$ in $[2]$ liefert $0 = 0$ |
$\vec{v} = r \cdot \begin{pmatrix} -\frac{d - \lambda}{c} \\ 1 \end{pmatrix}$ mit $r \neq 0$ |
$b \neq 0$ |
$[2] \quad v_2 = -\frac{a - \lambda}{b} \cdot v_1$ Einsetzen von $v_2$ in $[1]$ liefert $0 = 0$ |
$\vec{v} = r \cdot \begin{pmatrix} 1 \\ -\frac{a - \lambda}{b} \end{pmatrix}$ mit $r \neq 0$ |
$a = \lambda$ und $b = 0$ und $c = 0$ | $\vec{v} = r \cdot \begin{pmatrix} 1 \\ 0 \end{pmatrix}$ mit $r \neq 0$ | |
$d = \lambda$ und $b = 0$ und $c = 0$ | $\vec{v} = r \cdot \begin{pmatrix} 0 \\ 1 \end{pmatrix}$ mit $r \neq 0$ |
Für jeden Eigenwert ergeben sich jeweils unendlich viele Eigenvektoren.
Für die Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$ mit den Eigenwerten $\lambda = -1$ bzw. $\lambda = 5$ erhält man so:
Eigenwert | Eigenvektoren |
---|---|
$\lambda = -1$ | $\vec{v} = r \cdot \begin{pmatrix} -1 \\ 1 \end{pmatrix}$ mit $r \neq 0$ |
$\lambda = 5$ | $\vec{v} = r \cdot \begin{pmatrix} 0.5 \\ 1 \end{pmatrix}$ mit $r \neq 0$ |