i

Exkurs - Inverse 2x2-Matrizen

Zur Orientierung

Zielsetzung

Ziel ist es genauer zu untersuchen, welche $2 \times 2$-Matrizen invertierbar sind und wie ggf. die zugehörigen inversen Matrizen gebildet werden.

Beachte: Dieser Abschnitt über inverse $2 \times 2$-Matrizen wird in etwas modifizierter Form nochmal im Kapitel Umkehrung geometrischer Abbildungen aufgeführt.

Eine inverse Matrix bestimmen

Wir bearbeiten zunächst folgende Problemstellung:

Problem:

Geg.: $A = \begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}$

Ges.: $A^{-1} = \begin{pmatrix} x & u \\ y & v \end{pmatrix}$

Folgende Matrixgleichung muss dann erfüllt sein.

$\underbrace{\begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}}_{A} \cdot \underbrace{\begin{pmatrix} x & u \\ y & v \end{pmatrix}}_{A^{-1}} = \underbrace{\begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}}_{E}$

Wenn man das Matrixprodukt bildet, ergeben sich $4$ Gleichungen.

LGS 1 LGS 2
$\begin{array}{lrcrcrcr} [1] &\quad 2x & + & 4y & = & 1 \\ [2] &\quad x & + & 3y & = & 0 \end{array}$ $\begin{array}{lrcrcrcr} [3] &\quad \dots & + & \dots & = & \dots \\ [4] &\quad \dots & + & \dots & = & \dots \end{array}$

Aufgabe 1

(a) Ergänze die fehlenden Teile in den Gleichungen $[3]$ und $[4]$.

(b) Warum ist es sinnvoll, die 4 entstehenden Gleichungen $[1]$, ..., $[4]$ in 2 Blöcke aufzuteilen? Begründe.

(c) Löse das Gleichungssystem, das aus den Gleichungen $[1]$ und $[2]$ besteht.

(d) Löse auch das Gleichungssystem, das aus den Gleichungen $[3]$ und $[4]$ besteht.

(e) Kontrolliere, ob $A^{-1} = \begin{pmatrix} x & u \\ y & v \end{pmatrix}$ mit den ermittelten Werten für $x$, ..., $v$ tatsächlich die inverse Matrix zu $A = \begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}$ ist.

Zur Kontrolle
$A^{-1} = \begin{pmatrix} 1.5 & -2 \\ -0.5 & 1 \end{pmatrix}$

Eine Formel für inverse Matrizen verwenden

Das Vorgehen im Beispiel oben lässt sich auf beliebige $2 \times 2$-Matrizen übertragen. Man erhält dabei folgendes Ergebnis:

Inverse einer $2 \times 2$-Matrix

Eine $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ ist genau dann invertierbar, wenn die Bedingung $a \cdot d - b \cdot c \neq 0$ erfüllt ist. Für die inverse Matrix $A^{-1}$ gilt dann:

$A^{-1} = \displaystyle{\frac{1}{a \cdot d - b \cdot c}} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix}$

Der Ausdruck $a \cdot d - b \cdot c$ spielt eine entscheidende Rolle für die Invertierbarkeit einer Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$. Man führt daher eine Bezeichnung für diesen Ausdruck ein:

Deterimnante

Unter der Determinate einer $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ versteht man den Ausdruck $a \cdot d - b \cdot c$.

Kurz: $\det\begin{pmatrix} a & b \\ c & d \end{pmatrix} = a \cdot d - b \cdot c$

Aufgabe 2

(a) Zeige mit Hilfe der Determinante, dass die Matrix $A = \begin{pmatrix} 2 & 4 \\ 1 & 3 \end{pmatrix}$ (aus dem Beispiel oben) invertierbar ist. Bestimme anschließend die zugehörige Umkehrmatrix mit der Formel aus dem Satz. Vergleiche mit dem Ergebnis aus Aufgabe 1.

(b) Zeige, dass die Formel für $A^{-1}$ im Satz tatsächlich die inverse Matrix zu $A$ liefert. Berechne hierzu das Matrixprodukt $A^{-1} \cdot A$.

$\displaystyle{\frac{1}{a \cdot d - b \cdot c}} \cdot \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} \cdot \begin{pmatrix} a & b \\ c & d \end{pmatrix} = \dots$

Invertierbarkeit untersuchen

Wie kann man oft direkt sehen, dass eine $2 \times 2$-Matrix nicht invertierbar ist? Diese Frage soll jetzt anhand von Beispielen untersucht werden.

Aufgabe 3

(a) In der Tabelle sind etliche nicht invertierbare $2 \times 2$-Matrizen aufgelistet. Erläutere zunächst die vorgegebenen Einträge in der ersten Zeile der Tabelle. Untersuche, ob es analoge Zusammenhänge auch bei den weiteren Matrizen gibt.

Matrix $A$ $\det(A)$ Zusammenhänge zwischen den Spaltenvektoren von $A$
$\begin{pmatrix} 2 & 4 \\ 1 & 2 \end{pmatrix}$ $2 \times 2 - 4 \times 1 = 0$ $2 \cdot \begin{pmatrix} 2 \\ 1 \end{pmatrix} = \begin{pmatrix} 4 \\ 2 \end{pmatrix}$ bzw. $\begin{pmatrix} 2 \\ 1 \end{pmatrix} = \frac{1}{2} \cdot \begin{pmatrix} 4 \\ 2 \end{pmatrix}$
$\begin{pmatrix} 1 & 5 \\ 1 & 5 \end{pmatrix}$
$\begin{pmatrix} 2 & 3 \\ -2 & .3 \end{pmatrix}$
$\begin{pmatrix} 4 & 6 \\ 6 & 9 \end{pmatrix}$
$\begin{pmatrix} 6 & 2 \\ -9 & -3 \end{pmatrix}$
$\begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix}$
$\begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}$

(b) Formuliere das Ergebnis deiner Untersuchungen.

Invertierbarkeit einer $2 \times 2$-Matrix

Eine $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ ist genau dann invertierbar, wenn die zugehörigen Spaltenvektoren $\begin{pmatrix} a \\ c \end{pmatrix}$ und $\begin{pmatrix} b \\ d \end{pmatrix}$ folgende Eigenschaft haben: ...

Lineare Abhängigkeit von zwei Vektoren

Die Untersuchungen zur Invertierbarkeit einer $2 \times 2$-Matrix führen auf das in der Linearen Algebra zentrale Fachkonzept der linearen (Un-) Abhängigkeit von Vektoren.

Lineare (Un-) Abhängigkeit

Zwei Vektoren $\vec{u}$ und $\vec{v}$ nennt man linear abhängig genau dann, wenn einer der beiden Vektoren ein Vielfaches des anderen ist bzw. wenn es eine reelle Zahl $k$ gibt, sodass $\vec{u} = k\cdot \vec{v}$ oder $\vec{v} = k\cdot \vec{u}$ gilt.

Zwei Vektoren $\vec{u}$ und $\vec{v}$ nennt man linear unabhängig genau dann, wenn sie nicht linear abhängig sind.

Mit diesen neuen Fachkonzept lässt sich der Satz über die Invertierbarkeit einer $2 \times 2$-Matrix auch so formulieren:

Invertierbarkeit einer $2 \times 2$-Matrix

Eine $2 \times 2$-Matrix $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$ ist genau dann invertierbar, wenn die zugehörigen Spaltenvektoren $\begin{pmatrix} a \\ c \end{pmatrix}$ und $\begin{pmatrix} b \\ d \end{pmatrix}$ linear unabhängig sind.

Suche

v
5.2.6.3
o-mathe.de/lineare-algebra/vektorenmatrizen/inversematrix/exkurs
o-mathe.de/5.2.6.3

Rückmeldung geben