Logo des digitalen Schulbuchs o-mathe.de. Schriftzug mit Omega als O

Minimallogo des digitalen Schulbuchs inf-schule.de. Omega als Symbol

s n h m r u
i

Zusammenfassung - Bestimmung von Eigenvektoren

Zur Orientierung

Ziel ist es hier, ein Verfahren zur Bestimmung von Eigenvektoren zu entwickeln.

Ein Vektor $\vec{v} \neq \vec{0}$ ist ein Eigenvektor einer quadratischen Matrix $A$ genau dann, wenn es einen reelle Zahl $\lambda$ gibt, so dass folgende Eigenvektorgleichung erfüllt ist:

$A \cdot \vec{v} = \lambda \cdot \vec{v}$

Wir verdeutlichen das Vorgehen zur Bestimmung von Eigenvektoren anhand von $2 \times 2$-Matrizen. Wir betrachten daher folgende Problemsituation:

Geg.:
Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$

Ges.:
Eigenvektoren der Matrix $A$

Beachte, dass sich ein Großteil der Überlegungen zur Bestimmung der Eigenvektoren für $2 \times 2$-Matrizen direkt auf beliebige quadratische Matrizen übertragen lässt.

Umformung der Eigenvektorgleichung

Ausgangspunkt sämtlicher Überlegungen zur Bestimmung von Eigenvektoren ist die Eigenvektorgleichung:

$A \cdot \vec{v} = \lambda \cdot \vec{v}$

Die folgende Übersicht zeigt, wie man diese Eigenvektorgleichung auch anders formulieren und in ein System aus Koordinatengleichungen überführen kann.

Umformung der Eigenvektorgleichung Erläuterungen
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \lambda \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}}$ So sind Eigenvektoren festgelegt.
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}}$ Die Eiheitsmatrix verändert bei der Multiplikation mit einem Vektor diesen Vektoren nicht.
$\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} - \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ Auf beiden Seiten der Gleichung wird der $\lambda$-Ausdruck subtrahiert.
$\left[\underbrace{\begin{pmatrix} a & b \\ c & d \end{pmatrix}}_{A} - \lambda \cdot \underbrace{\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}}_{E}\right] \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ Der Vektor $\vec{v}$ wird ausgeklammert. Das ist erlaubt, da das Distributivgesetz für die Multiplikation von Matrizen / Vektoren gilt.
$\underbrace{\begin{pmatrix} a - \lambda & b \\ c & d - \lambda \end{pmatrix}}_{A - \lambda \cdot E} \cdot \underbrace{\begin{pmatrix} v_1 \\ v_2 \end{pmatrix}}_{\vec{v}} = \underbrace{\begin{pmatrix} 0 \\ 0 \end{pmatrix}}_{\vec{0}}$ Die Rechnungen in den eckigen Klammern werden ausgeführt.
$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ Die Matrixschreibweise wird in eine Gleichungsschreibweise umgewandet.

Beachte: Die Umformungsschritte in der Übersicht gelten nicht nur für beliebige $2 \times 2$-Matrizen $A$. Es gilt folgender Zusammenhang für beliebige quadratische Matrizen.

Eigenvektorbedingung

Für eine beliebige quadratische Matrix $A$ gilt: Ein Vektor $\vec{v} \neq \vec{0}$ ist ein Eigenvektor von $A$ genau dann, wenn es einen reelle Zahl $\lambda$ gibt, so dass die folgende Bedingung (mit der zu $A$ passenden Einheitsmatrix $E$) erfüllt ist:

$(A - \lambda \cdot E) \cdot \vec{v} = \vec{0}$

Herleitung einer Eigenwertgleichung – am Beipiel

Die Schritte zur Herleitung einer Eigenwertgleichung sind für beliebige $2 \times 2$-Matrizen mit vielen Fallunterscheidungen verbunden. Wir betrachten daher zuerst eine konkrete $2 \times 2$-Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$. Für diese Matrix erhält man folgende Eigenvektorgleichung in Koordinatenform:

$\begin{array}{lrcrcrcr} [1] &\quad (1 - \lambda) \cdot v_1 & + & 2 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$

Für die weiteren Überlegungen ist die Voraussetzung wichtig, dass ein Eigenvektor kein Nullvektor ist. Wenn $\vec{v} \neq \vec{0}$, dann folgt hieraus, dass im vorliegenden Beispiel $\lambda \neq 1$ und $\lambda \neq 3$ gelten muss. Das sieht man, indem man indirekt schließt: Wenn $\lambda = 1$ gelten würde, dann müsste $v_2 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Um auch noch Gleichung $[2]$ zu erfüllen, müsste dann auch noch $v_1 = 0$ gelten. Hieraus würde dann $\vec{v} = \vec{0}$ folgen. Entsprechend kann man für $\lambda = 3$ argumentieren.

Also: Im vorliegenden Beispiel gilt für Eigenvektoren die Voraussetzung $\lambda \neq 1$ und $\lambda \neq 3$.

Das LGS zur Eigenvektorgleichung wird jetzt mit Hilfe von Äquivalenzumformungen in Stufenform transformiert.

vorgegebenes LGS $\begin{array}{lrcrcrcr} [1] &\quad (1 - \lambda) \cdot v_1 & + & 2 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$
Äquivalenzumformung $[1] \leftarrow [1] \cdot 4$
transformiertes LGS $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot v_1 & + & (3 - \lambda) \cdot v_2 & = & 0 \end{array}$
Äquivalenzumformung $[2] \leftarrow [2] \cdot (1 - \lambda)$ beachte: $(1 - \lambda) \neq 0$
transformiertes LGS $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & (1 - \lambda) \cdot (3 - \lambda) \cdot v_2 & = & 0 \end{array}$
Äquivalenzumformung $[2] \leftarrow [2] + (-1) \cdot [1]$
transformiertes LGS $\begin{array}{lrcrcrcr} [1] &\quad 4 \cdot (1 - \lambda) \cdot v_1 & + & 2 \cdot 4 \cdot v_2 & = & 0 \\ [2] &\quad & & [(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4] \cdot v_2 & = & 0 \end{array}$

Damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt, muss die folgende Eigenwertgleichung erfüllt sein:

$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = 0$

Um das einzusehen, kann man wieder indirekt argumentieren: Wenn $(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 \neq 0$ gelten würde, dann müsste $v_2 = 0$ gelten, um Gleichung $[2]$ zu erfüllen. Da $\lambda \neq 1$, müsste dann auch $v_1 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Hieraus würde dann $\vec{v} = \vec{0}$ folgen.

Die Eigenwertgleichung lässt sich jetzt nach der Variablen $\lambda$ lösen. Es gilt:

$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = \lambda^2 - 4\lambda - 5 = (\lambda + 1)\cdot(\lambda - 5)$

Also:

$(1 - \lambda) \cdot (3 - \lambda) - 2 \cdot 4 = 0$ genau dann, wenn $\lambda = -1$ oder $\lambda = 5$.

Mit der Eigenwertgleichung erhält man somit die Eigenwerte $\lambda = -1$ bzw. $\lambda = 5$ zur Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$.

Herleitung einer Eigenwertgleichung – für beliebige $2 \times 2$-Matrizen

Im Fall beliebiger $2 \times 2$-Matrizen geht man analog zum Beispiel oben vor. Im allgemeinen Fall muss man für einige Umformungsschritte allerdings weitere Voraussetzungen treffen.

Fall 1:
Voraussetzung: $c \neq 0$ und $a \neq \lambda$.
Fall 1:
Voraussetzung: $b \neq 0$ und $d \neq \lambda$
$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$
$[1] \leftarrow [1] \cdot c$ $\quad$ Vor.: $c \neq 0$ $[2] \leftarrow [2] \cdot b$ $\quad$ Vor.: $b \neq 0$
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$ $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$
$[2] \leftarrow [2] \cdot (a - \lambda)$ $\quad$ Vor.: $(a - \lambda) \neq 0$ $[1] \leftarrow [1] \cdot (d - \lambda)$ $\quad$ Vor.: $(d - \lambda) \neq 0$
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad c \cdot (a - \lambda) \cdot v_1 & + & (a - \lambda) \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$ $\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot (d - \lambda) \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$
$[2] \leftarrow [2] + (-1) \cdot [1]$ $[1] \leftarrow [1] + (-1) \cdot [2]$
$\begin{array}{lrcrcrcr} [1] &\quad c \cdot (a - \lambda) \cdot v_1 & + & b \cdot c \cdot v_2 & = & 0 \\ [2] &\quad & & [(a - \lambda) \cdot (d - \lambda) - b \cdot c] \cdot v_2 & = & 0 \end{array}$ $\begin{array}{lrcrcrcr} [1] &\quad [(a - \lambda) \cdot (d - \lambda) - b \cdot c] \cdot v_1 & & & = & 0 \\ [2] &\quad b \cdot c \cdot v_1 & + & b \cdot (d - \lambda) \cdot v_2 & = & 0 \end{array}$

Damit $A$ Eigenvektoren mit $\vec{v} \neq \vec{0}$ hat, muss die Bedingung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ erfüllt sein. Um das nachzuweisen, muss man eine ganze Reihe von Fällen durchspielen.

Fall 1: $c \neq 0$ und $a \neq \lambda$
Wenn $(a - \lambda) \cdot (d - \lambda) - b \cdot c \neq 0$ gelten würde, dann müsste $v_2 = 0$ gelten, um Gleichung $[2]$ zu erfüllen. Da $\lambda \neq a$, müsste dann auch $v_1 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Hieraus würde dann $\vec{v} = \vec{0}$ folgen.
Fall 2: $b \neq 0$ und $d \neq \lambda$
Wenn $(a - \lambda) \cdot (d - \lambda) - b \cdot c \neq 0$ gelten würde, dann müsste $v_1 = 0$ gelten, um Gleichung $[1]$ zu erfüllen. Da $\lambda \neq d$, müsste dann auch $v_2 = 0$ gelten, um Gleichung $[2]$ zu erfüllen. Hieraus würde dann $\vec{v} = \vec{0}$ folgen.
Fall 3: $a = \lambda$
Wenn $a = \lambda$ gilt, dann muss $b \cdot v_2 = 0$ gelten, um Gleichung $[1]$ (im Ausgangs-LGS) zu erfüllen. Folglich muss $b = 0$ oder $v_2 = 0$ gelten. Wenn $v_2 = 0$ zutrifft, dann muss auch $c \cdot v_1 = 0$ gelten. Da im Fall $v_2 = 0$ nicht auch $v_1 = 0$ gelten kann, muss also $c = 0$ gelten. Insgesamt erhält man für $a = \lambda$, dass $b = 0$ oder $c = 0$ zutrifft. Hieraus folgt, dass auch im Fall $a = \lambda$ die Gleichung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ gelten muss, damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt. Wenn $(a - \lambda) \cdot (d - \lambda) - b \cdot c \neq 0$ gelten würde, dann müsste $v_1 = 0$ gelten, um Gleichung $[1]$ zu erfüllen.
Fall 4: $d = \lambda$
Hier kann man analog zum Fall 3 argumentieren. Es folgt, dass auch im Fall $d = \lambda$ die Gleichung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ gelten muss, damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt.
Fall 5: $c = 0$
Wenn $c = 0$ gilt, dann muss $(d - \lambda) \cdot v_2 = 0$ gelten, um Gleichung $[2]$ (im Ausgangs-LGS) zu erfüllen. Folglich muss $d = \lambda$ oder $v_2 = 0$ gelten. Der Fall $d = \lambda$ wird bereits in Fall 4 betrachtet. Wenn $v_2 = 0$ zutrifft, dann muss auch $(a - \lambda) \times v_1 = 0$ gelten. Für $v_2 = 0$ kann $v_1 = 0$ für Eigenvektoren $\vec{v} \neq \vec{0}$ nicht zutreffen. Es muss also $a = \lambda$ gelten. Der Fall $a = \lambda$ wird bereits in Fall 3 betrachtet. Insgesamt erhält man, dass auch im Fall $c = 0$ die Gleichung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ gelten muss, damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt.
Fall 6: $b = 0$
Hier kann man analog zum Fall 5 argumentieren. Es folgt, dass auch im Fall $b = 0$ die Gleichung $(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$ gelten muss, damit es Eigenvektoren $\vec{v} \neq \vec{0}$ gibt.

Wir fassen das Ergebnis im folgenden Satz zusammen.

Eigenwertbedingung

Für eine beliebige $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ gilt: Die Eigenwerte von $A$ sind die Lösungen der folgenden Gleichung:

$(a - \lambda) \cdot (d - \lambda) - b \cdot c = 0$

Diese Gleichung nennt man auch charakteristischen Gleichung.

Im Kapitel Inverse 2x2-Matrizen wurde die Determinate einer $2 \times 2$-Matrix eingeführt:

Unter der Determinate einer $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ versteht man den Ausdruck $\det(A) = a \cdot d - b \cdot c$.

Die Eigenwertbedingung kann man mit Hilfe der Determinante auch so formulieren:

Eigenwertbedingung

Für eine beliebige $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ gilt: Die Eigenwerte von $A$ sind die Lösungen der folgenden Gleichung:

$\det(A - \lambda \cdot E) = 0$

Beachte: Die Eigenwertbedingung $\det(A - \lambda \cdot E) = 0$ gilt für beliebige quadratische Matrizen $A$. Man muss hierzu die Determinante geeignet für beliebige quadratische Matrizen festlegen.

Bestimmung von Eigenvektoren mit Hilfe von Eigenwerten

Ist $\lambda$ ein Eigenwert von $A$, so erhält man die zugehörigen Eigenvektoren durch Auflösen des LGS nach den Variablen $v_1$ und $v_2$.

$\begin{array}{lrcrcrcr} [1] &\quad (a - \lambda) \cdot v_1 & + & b \cdot v_2 & = & 0 \\ [2] &\quad c \cdot v_1 & + & (d - \lambda) \cdot v_2 & = & 0 \end{array}$

In der Übersicht sind die möglichen Fällen aufgelistet.

Bedingung Auflösung nach einer Variablen Eigenvektoren
$a \neq \lambda$ $[1] \quad v_1 = -\frac{b}{a-\lambda} \cdot v_2$
Einsetzen von $v_1$ in $[2]$ liefert $0 = 0$
$\vec{v} = r \cdot \begin{pmatrix} -\frac{b}{a-\lambda} \\ 1 \end{pmatrix}$ mit $r \neq 0$
$d \neq \lambda$ $[2] \quad v_2 = -\frac{c}{d-\lambda} \cdot v_1$
Einsetzen von $v_2$ in $[1]$ liefert $0 = 0$
$\vec{v} = r \cdot \begin{pmatrix} 1 \\ -\frac{c}{d-\lambda} \end{pmatrix}$ mit $r \neq 0$
$c \neq 0$ $[1] \quad v_1 = -\frac{d - \lambda}{c} \cdot v_2$
Einsetzen von $v_1$ in $[2]$ liefert $0 = 0$
$\vec{v} = r \cdot \begin{pmatrix} -\frac{d - \lambda}{c} \\ 1 \end{pmatrix}$ mit $r \neq 0$
$b \neq 0$ $[2] \quad v_2 = -\frac{a - \lambda}{b} \cdot v_1$
Einsetzen von $v_2$ in $[1]$ liefert $0 = 0$
$\vec{v} = r \cdot \begin{pmatrix} 1 \\ -\frac{a - \lambda}{b} \end{pmatrix}$ mit $r \neq 0$
$a = \lambda$ und $b = 0$ und $c = 0$ $\vec{v} = r \cdot \begin{pmatrix} 1 \\ 0 \end{pmatrix}$ mit $r \neq 0$
$d = \lambda$ und $b = 0$ und $c = 0$ $\vec{v} = r \cdot \begin{pmatrix} 0 \\ 1 \end{pmatrix}$ mit $r \neq 0$

Für jeden Eigenwert ergeben sich jeweils unendlich viele Eigenvektoren.

Für die Matrix $A = \begin{pmatrix} 1 & 2 \\ 4 & 3 \end{pmatrix}$ mit den Eigenwerten $\lambda = -1$ bzw. $\lambda = 5$ erhält man so:

Eigenwert Eigenvektoren
$\lambda = -1$ $\vec{v} = r \cdot \begin{pmatrix} -1 \\ 1 \end{pmatrix}$ mit $r \neq 0$
$\lambda = 5$ $\vec{v} = r \cdot \begin{pmatrix} 0.5 \\ 1 \end{pmatrix}$ mit $r \neq 0$

Suche

v
5.5.2.6
o-mathe.de/lineare-algebra/eigenvektoren/bestimmung/zusammenfassung
o-mathe.de/5.5.2.6

Rückmeldung geben