Zusammenfassung - Prozessentwicklung mit Eigenvektoren
Die Grundidee
Wir betrachten das folgende Populationsentwicklungsmodell.
Übergangsgraph | Prozessmatrix |
---|---|
$P = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix}$ |
Bei diesem Modell gibt es Verteilungsvektoren mit einem besonderen Verhalten. Bei bestimmten Verteilungen erhält man die nächste Verteilung, indem man die vorherige mit einer Zahl vervielfacht.
Schritt | Verteilung | Zusammenhang |
---|---|---|
$0$ | $\vec{v}_{0} = \begin{pmatrix} 10 \\ 3 \end{pmatrix}$ | |
$1$ | $\vec{v}_{1} = P \cdot \vec{v}_{0} = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix} \cdot \begin{pmatrix} 10 \\ 3 \end{pmatrix} = \begin{pmatrix} 20 \\ 6 \end{pmatrix}$ | $\vec{v}_{1} = 2 \cdot \vec{v}_{0}$ |
$2$ | $\vec{v}_{2} = P \cdot \vec{v}_{1} = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix} \cdot \begin{pmatrix} 20 \\ 6 \end{pmatrix} = \begin{pmatrix} 40 \\ 12 \end{pmatrix}$ | $\vec{v}_{2} = 2 \cdot \vec{v}_{1} = 2^2 \cdot \vec{v}_{0}$ |
$3$ | $\vec{v}_{3} = P \cdot \vec{v}_{2} = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix} \cdot \begin{pmatrix} 40 \\ 12 \end{pmatrix} = \begin{pmatrix} 80 \\ 24 \end{pmatrix}$ | $\vec{v}_{3} = 2 \cdot \vec{v}_{2} = 2^3 \cdot \vec{v}_{0}$ |
$\dots$ | ||
$i$ | $\vec{v}_{i} = P \cdot \vec{v}_{i-1} = \dots$ | $\vec{v}_{i} = 2 \cdot \vec{v}_{i-1} = 2^i \cdot \vec{v}_{0}$ |
Die Berechnung weiterer Verteilungsvektoren für eine langfristige Prognose ist hier besonders einfach. Man muss den Ausgangsverteilungsvektor nur mit einer $2$er-Potenz multiplizieren. Das führt im vorliegenden Populationsmodell für die betrachtete Ausgangsverteilung zu einem exponentiellen Wachstum.
Das Eigenvektorkonzept
Im Beispiel oben erzeugt die Prozessmatrix aus dem betrachteten Ausgangsverteilungsvektor ein Vielfaches dieses Vektors. Dieses Verhalten der Matrix ist auch in anderen Bereichen der Linearen Algebra von Bedeutung. Man führt daher Begriffe ein, um es allgemein zu charakterisieren.
Eigenvektoren und Eigenwerte
Betrachte eine quadratische Matrix $A$. Wenn für einen Vektor $\vec{v}$, der nicht der Nullvektor ist, die Vervielfachungseigenschaft $A \cdot \vec{v} = \lambda \cdot \vec{v}$ mit einer reellen Zahl $\lambda$ gilt, dann nennt man den Vektor $\vec{v}$ Eigenvektor der Matrix $A$ und $\lambda$ Eigenwert der Matrix $A$.
Mit diesen Begriffen lässt sich das beobachtete Verhalten im oben gezeigten Populationsentwicklung so beschreiben:
Beispiel
Der Verteilungsvektor $\vec{v} = \begin{pmatrix} 10 \\ 3 \end{pmatrix}$ ist ein Eigenvektor der Prozessmatrix $P = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix}$ zum Eigenwert $\lambda = 2$.
Die Verteilungsvektoren $\vec{v} = \begin{pmatrix} 20 \\ 6 \end{pmatrix}$, $\vec{v} = \begin{pmatrix} 40 \\ 12 \end{pmatrix}$, $\vec{v} = \begin{pmatrix} 80 \\ 24 \end{pmatrix}$ usw. sind ebenfalls Eigenvektoren der Prozessmatrix $P = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix}$ zum Eigenwert $\lambda = 2$.
Im Beispiel sieht man bereits, dass Vielfache von Eigenvektoren einer Matrix auch Eigenvektoren dieser Matrix mit demselben Eigenwert sind.
Eigenvektoren und Eigenwerte
Ist $\vec{v}$ ein Eigenvektor zur Matrix $A$ zum Eigenwert $\lambda$, so ist auch jedes Vielfache $r \cdot \vec{v}$ (mit einer reellen Zahl $r \neq 0$) ein Eigenvektor zur Matrix $A$ zum Eigenwert $\lambda$.
Die Begründung ist ganz einfach: Wenn $A \cdot \vec{v} = \lambda \cdot \vec{v}$ gilt, dann gilt auch $A \cdot (r \cdot \vec{v}) = r \cdot (A \cdot \vec{v}) = r \cdot \lambda \cdot \vec{v} = \lambda \cdot (r \cdot \vec{v})$.
Darstellung von Vektoren mit Eigenvektoren
Eine vorgegebene Matrix kann Eigenvektoren zu verschiedenen Eigenwerten haben. Das kann man dann ggf. verwenden, um Vektoren als Linearkombination von Eigenvektoren darzustellen. Wir verdeutlichen den Nutzen dieses Ansatzes anhand verschiedener Populationsentwicklungsmodelle.
Beispiel 1
Übergangsgraph | Prozessmatrix | Eigenvektoren und Eigenwerte |
---|---|---|
$P = \begin{pmatrix} 0.8 & 4 \\ 0.36 & 0.8 \end{pmatrix}$ |
$\vec{w}_1 = \begin{pmatrix} 10 \\ 3 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_1 = 2$. $\vec{w}_2 = \begin{pmatrix} -10 \\ 3 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_2 = -0.4$. |
Betrachte eine Linearkombination der Eigenvektoren wie z.B.:
$\vec{v}_0 = 3 \cdot \underbrace{\begin{pmatrix} 10 \\ 3 \end{pmatrix}}_{\vec{w}_1} + 1 \cdot \underbrace{\begin{pmatrix} -10 \\ 3 \end{pmatrix}}_{\vec{w}_2} = \begin{pmatrix} 20 \\ 12 \end{pmatrix}$.
Für diesen Verteilungsvektor erhält man folgende Prozessentwicklung:
$\vec{v}_1 = P \cdot \vec{v}_0 =
P \cdot (3 \cdot \vec{w}_1 + 1 \cdot \vec{w}_2) =
3 \cdot P \cdot \vec{w}_1 + 1 \cdot P \cdot \vec{w}_2 =
3 \cdot 2 \cdot \vec{w}_1 + 1 \cdot (-0.4) \cdot \vec{w}_2$
$\vec{v}_2 = P \cdot \vec{v}_1 =
P \cdot (3 \cdot 2 \cdot \vec{w}_1 + 1 \cdot (-0.4) \cdot \vec{w}_2) =
3 \cdot 2 \cdot P \cdot \vec{w}_1 + 1 \cdot (-0.4) \cdot P \cdot \vec{w}_2 =
3 \cdot 2^2 \cdot \vec{w}_1 + 1 \cdot (-0.4)^2 \cdot \vec{w}_2$
...
$\vec{v}_i = 3 \cdot 2^i \cdot \vec{w}_1 + 1 \cdot (-0.4)^i \cdot \vec{w}_2$ für $i = 1, 2, \dots$
Es gilt demnach:
$\vec{v}_i = 3 \cdot \underbrace{2^{i}}_{\lambda_1^{i}} \cdot \underbrace{\begin{pmatrix} 10 \\ 3 \end{pmatrix}}_{\vec{w}_1} + 1 \cdot \underbrace{(-0.4)^{i}}_{\lambda_2^{i}} \cdot \underbrace{\begin{pmatrix} -10 \\ 3 \end{pmatrix}}_{\vec{w}_2}$
Da $(-0.4)^{i} \rightarrow 0$ für $i \rightarrow \infty$, erhält man:
$\vec{v}_i \quad \underbrace{\approx}_{i \rightarrow \infty} \quad \underbrace{2^{i}}_{\lambda_1^{i}} \cdot 3 \cdot \underbrace{\begin{pmatrix} 10 \\ 3 \end{pmatrix}}_{\vec{w}_1}$.
Auf lange Sicht wächst die Population hier nahezu exponentiell mit dem Wachstumsfaktor $2$. Der domenante Eigenwert $\lambda_1 = 2$ bestimmt also das langfristige Verhalten bei der gewählten Ausgangsverteilung. Dieser Sachverhalt gilt entsprechend für alle Ausgangsverteilungen, die sich als Linearkombination der beiden Eingenvektoren darstellen lassen.
Beispiel 2
Übergangsgraph | Prozessmatrix | Eigenvektoren und Eigenwerte |
---|---|---|
$P = \begin{pmatrix} 0.2 & 2 \\ 0.32 & 0.2 \end{pmatrix}$ |
$\vec{w}_1 = \begin{pmatrix} 10 \\ 4 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_1 = 1$. $\vec{w}_2 = \begin{pmatrix} -10 \\ 4 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_2 = -0.6$. |
Betrachte eine Linearkombination der Eigenvektoren wie z.B.:
$\vec{v}_0 = 5 \cdot \underbrace{\begin{pmatrix} 10 \\ 4 \end{pmatrix}}_{\vec{w}_1} + 1 \cdot \underbrace{\begin{pmatrix} -10 \\ 4 \end{pmatrix}}_{\vec{w}_2} = \begin{pmatrix} 40 \\ 24 \end{pmatrix}$.
Für diesen Verteilungsvektor erhält man folgende Prozessentwicklung:
$\vec{v}_i = 5 \cdot \underbrace{1^{i}}_{\lambda_1^{i}} \cdot \underbrace{\begin{pmatrix} 10 \\ 4 \end{pmatrix}}_{\vec{w}_1} + 1 \cdot \underbrace{(-0.6)^{i}}_{\lambda_2^{i}} \cdot \underbrace{\begin{pmatrix} -10 \\ 4 \end{pmatrix}}_{\vec{w}_2} \quad \underbrace{\approx}_{i \rightarrow \infty} \quad \underbrace{1^{i}}_{\lambda_1^{i}} \cdot 5 \cdot \underbrace{\begin{pmatrix} 10 \\ 4 \end{pmatrix}}_{\vec{w}_1} = 5 \cdot \underbrace{\begin{pmatrix} 10 \\ 4 \end{pmatrix}}_{\vec{w}_1}$
Die Verteilung stabililisiert sich auf lange Sicht bei der Ausgangsverteilung.
Beispiel 3
Übergangsgraph | Prozessmatrix | Eigenvektoren und Eigenwerte | $P = \begin{pmatrix} 0.1 & 1 \\ 0.49 & 0.1 \end{pmatrix}$ |
$\vec{w}_1 = \begin{pmatrix} 10 \\ 7 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_1 = 0.8$. $\vec{w}_2 = \begin{pmatrix} -10 \\ 7 \end{pmatrix}$ ist Eigenvektor von $P$ zum Eigenwert $\lambda_2 = -0.6$. |
---|
Betrachte eine Linearkombination der Eigenvektoren wie z.B.:
$\vec{v}_0 = 8 \cdot \underbrace{\begin{pmatrix} 10 \\ 7 \end{pmatrix}}_{\vec{w}_1} + 3 \cdot \underbrace{\begin{pmatrix} -10 \\ 7 \end{pmatrix}}_{\vec{w}_2} = \begin{pmatrix} 50 \\ 77 \end{pmatrix}$.
Für diesen Verteilungsvektor erhält man folgende Prozessentwicklung:
$\vec{v}_i = 8 \cdot \underbrace{0.8^{i}}_{\lambda_1^{i}} \cdot \underbrace{\begin{pmatrix} 10 \\ 7 \end{pmatrix}}_{\vec{w}_1} + 3 \cdot \underbrace{(-0.6)^{i}}_{\lambda_2^{i}} \cdot \underbrace{\begin{pmatrix} -10 \\ 7 \end{pmatrix}}_{\vec{w}_2} \quad \underbrace{\approx}_{i \rightarrow \infty} \quad 8 \cdot 0 \cdot \underbrace{\begin{pmatrix} 10 \\ 7 \end{pmatrix}}_{\vec{w}_1} + 3 \cdot 0 \cdot \underbrace{\begin{pmatrix} -10 \\ 7 \end{pmatrix}}_{\vec{w}_2} = \begin{pmatrix} 0 \\ 0 \end{pmatrix}$
Die Verteilung zerfällt auf lange Sicht.