Diagonalmatrix

Als Diagonalmatrix bezeichnet man im mathematischen Teilgebiet der linearen Algebra eine quadratische Matrix, bei der alle Elemente außerhalb der Hauptdiagonale Null sind. Diagonalmatrizen sind deshalb allein durch die Angabe ihrer Hauptdiagonale bestimmt und man schreibt häufig

D=\operatorname {diag} (d_{1},d_{2},\dotsc ,d_{n})={\begin{pmatrix}d_{1}&0&\cdots &0\\0&d_{2}&\ddots &\vdots \\\vdots &\ddots &\ddots &0\\0&\cdots &0&d_{n}\end{pmatrix}}.

Stimmen dabei sämtliche Zahlen d_{1},d_{2},\dotsc ,d_{n} auf der Hauptdiagonalen überein, spricht man auch von Skalarmatrizen. Skalarmatrizen sind also skalare Vielfache der Einheitsmatrix I_{n}=\operatorname {diag} (1,1,\dotsc ,1).

Rechenoperationen

Matrizenaddition, Skalarmultiplikation und Matrizenmultiplikation, Transposition

Die Matrizenaddition, Skalarmultiplikation und Matrizenmultiplikation gestalten sich bei Diagonalmatrizen sehr einfach:

\operatorname {diag} (a_{1},a_{2},\dots ,a_{n})\cdot \operatorname {diag} (b_{1},b_{2},\dots ,b_{n})=\operatorname {diag} (a_{1}\cdot b_{1},a_{2}\cdot b_{2},\dots ,a_{n}\cdot b_{n})

Multiplikation einer Matrix A von links mit einer Diagonalmatrix entspricht der Multiplikation der Zeilen von A mit den Diagonaleinträgen. Die entsprechende Multiplikation von rechts entspricht der Multiplikation der Spalten von A mit den Diagonaleinträgen.

Für jede Diagonalmatrix D gilt, dass sie symmetrisch ist, folglich gilt: D=D^{T}.

Berechnung der Inversen

Eine Diagonalmatrix ist genau dann invertierbar, wenn keiner der Einträge auf der Hauptdiagonale {\displaystyle 0} ist. Die inverse Matrix berechnet sich dann wie folgt:

\operatorname {diag} \left(d_{1},d_{2},\dots ,d_{n}\right)^{-1}=\operatorname {diag} \left(d_{1}^{-1},d_{2}^{-1},\dots ,d_{n}^{-1}\right)

Eigenschaften von Diagonalmatrizen

Beispiele

Die Diagonalmatrix

\operatorname {diag} \left(1,3,5\right)={\begin{pmatrix}1&0&0\\0&3&0\\0&0&5\end{pmatrix}}

besitzt die Eigenwerte

\lambda _{1}=1,\;\lambda _{2}=3,\;\lambda _{3}=5

mit den zugehörigen Eigenvektoren

e_{1}={\begin{pmatrix}1\\0\\0\end{pmatrix}},\quad e_{2}={\begin{pmatrix}0\\1\\0\end{pmatrix}},\quad e_{3}={\begin{pmatrix}0\\0\\1\end{pmatrix}}.

Die Diagonalmatrix

\operatorname {diag} \left(0,0\right)={\begin{pmatrix}0&0\\0&0\\\end{pmatrix}}

besitzt die Eigenwerte

\lambda _{1,2}=0

und die Eigenvektoren

e_{1}={\begin{pmatrix}1\\0\end{pmatrix}},\quad e_{2}={\begin{pmatrix}0\\1\end{pmatrix}}.

Diagonalisierbarkeit

Eine quadratische n-dimensionale Matrix A heißt diagonalisierbar oder diagonalähnlich, wenn es eine Diagonalmatrix D_{A} gibt, zu der sie ähnlich ist, das heißt, es existiert eine reguläre Matrix S, so dass gilt D_{A}=S^{-1}AS, bzw. SD_{A}=AS.

Für eine lineare Abbildung f\colon V\to V (Vektorraum-Endomorphismus) bedeutet dies, dass eine Basis B existiert, bei der die Darstellungsmatrix M_{B}^{B}(f) eine Diagonalmatrix ist.

Seien S und D_{A} mit den gewünschten Eigenschaften gefunden, so gilt, dass die Diagonaleinträge von D_{A}, nämlich \lambda _{i}, Eigenwerte von D_{A} zu den Einheitsvektoren e_{i} sind. Weiterhin ist ASe_{i}=SD_{A}e_{i}=S\lambda _{i}e_{i}=\lambda _{i}Se_{i}. Die Se_{i} sind also auch Eigenvektoren von A, und zwar jeweils zum Eigenwert \lambda _{i}.

Da S invertierbar sein soll, ist (Se_{1},\ldots ,Se_{n}) zudem linear unabhängig.

Zusammenfassend ergibt sich daraus die notwendige Bedingung, dass die Matrix A n linear unabhängige Eigenvektoren hat, der Raum, auf dem sie operiert, also eine Basis aus Eigenvektoren von A besitzt. Diese Bedingung ist aber auch hinreichend, denn aus n gefundenen Eigenvektoren von A mit den dazugehörigen Eigenwerten lassen sich geeignete D_{A} und S ganz direkt konstruieren.

Das Problem reduziert sich damit auf das Auffinden von ausreichend vielen linear unabhängigen Eigenvektoren von A.

Eigenschaften einer diagonalisierbaren Matrix

Ist eine Matrix diagonalisierbar, so ist die geometrische Vielfachheit ihrer Eigenwerte gleich der jeweiligen algebraischen Vielfachheit. Das bedeutet, die Dimension der einzelnen Eigenräume stimmt jeweils mit der algebraischen Vielfachheit der entsprechenden Eigenwerte im charakteristischen Polynom der Matrix überein.

Diagonalisierung

Ist eine Matrix A diagonalisierbar, existiert eine Diagonalmatrix D_{A}, für die die Ähnlichkeitsbedingung erfüllt ist:

D_{A}=S^{-1}AS

Zur Diagonalisierung dieser Matrix berechnet man die Diagonalmatrix D_{A} und eine zugehörige Basis aus Eigenvektoren. Dies geschieht in drei Schritten:

  1. Es werden die Eigenwerte \lambda _{i} der Matrix A bestimmt.
  2. Es werden die Eigenräume E\left(\lambda _{i}\right) zu allen Eigenwerten \lambda _{i} berechnet, also folgendes Gleichungssystem gelöst:
    (A-\lambda _{i}I)\cdot {\begin{pmatrix}e_{1}\\\vdots \\e_{n}\end{pmatrix}}=0
  3. Nun ist die Diagonalform D_{A} der Matrix A bezüglich der Basis B:
    D_{A}=\operatorname {diag} (\lambda _{1},\lambda _{2},\dots ,\lambda _{n})
    S=\{E(\lambda _{1}),\dots ,E(\lambda _{n})\}

Simultane Diagonalisierung

Gelegentlich will man auch zwei Matrizen A,B mit derselben Transformation S diagonalisieren. Falls das gelingt, gilt S^{-1}AS=D_{1} und S^{-1}BS=D_{2} und da D_{1} und D_{2} Diagonalmatrizen sind,

D_{1}\cdot D_{2}=D_{2}\cdot D_{1}\Rightarrow B\cdot A=SD_{2}S^{-1}\cdot SD_{1}S^{-1}=SD_{1}D_{2}S^{-1}=A\cdot B.

Also müssen die Endomorphismen miteinander kommutieren. In der Tat gilt auch die Umkehrung: Kommutieren zwei diagonalisierbare Endomorphismen, so können sie simultan diagonalisiert werden. In der Quantenmechanik gibt es für zwei solche Operatoren dann eine Basis aus gemeinsamen Eigenzuständen.

Spezielle Diagonalmatrizen

Siehe auch

Trenner
Basierend auf einem Artikel in: externer Link Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 27.12. 2020