Hermitesche Matrix

Eine hermitesche Matrix ist in der Mathematik eine komplexe quadratische Matrix, die gleich ihrer adjungierten Matrix ist. Die Einträge einer hermiteschen Matrix oberhalb der Hauptdiagonale ergeben sich demnach durch Spiegelung der Einträge unterhalb der Diagonale und nachfolgender komplexer Konjugation; die Einträge auf der Hauptdiagonale selbst sind alle reell. Hermitesche Matrizen sind nach dem Mathematiker Charles Hermite benannt.

Hermitesche Matrizen weisen eine Reihe besonderer Eigenschaften auf. Die Summe zweier hermitescher Matrizen ist stets wieder hermitesch. Jede komplexe quadratische Matrix lässt sich eindeutig als Summe einer hermiteschen und einer schiefhermiteschen Matrix schreiben. Das Produkt zweier hermitescher Matrizen ist wiederum hermitesch, sofern die beiden Matrizen kommutieren. Eine hermitesche Matrix ist stets normal und selbstadjungiert, sie besitzt nur reelle Eigenwerte und sie ist stets unitär diagonalisierbar Eine wichtige Klasse hermitescher Matrizen sind positiv definite Matrizen, bei denen alle Eigenwerte positiv sind. Eine hermitesche Matrix mit reellen Einträgen ist symmetrisch.

In der linearen Algebra werden hermitesche Matrizen zur Beschreibung hermitescher Sesquilinearformen verwendet. Die Darstellungsmatrix einer komplexen selbstadjungierten Abbildung bezüglich einer Orthonormalbasis ist ebenfalls stets hermitesch. Lineare Gleichungssysteme mit hermitescher Koeffizientenmatrix lassen sich effizient und numerisch stabil lösen. Weiterhin werden hermitesche Matrizen bei Orthogonalprojektionen und bei der Polarzerlegung von Matrizen verwendet. Hermitesche Matrizen besitzen Anwendungen unter anderem in der Quantenmechanik.

Definition

Eine komplexe quadratische Matrix A=(a_{{jk}})\in \mathbb{C} ^{{n\times n}} heißt hermitesch, wenn für ihre Einträge

a_{jk} = \overline{a_{kj}}

für j,k=1,\ldots ,n gilt. Eine hermitesche Matrix stimmt daher mit ihrer adjungierten Matrix A^H überein, das heißt, es gilt

A=A^{H}.

Äquivalent dazu ist eine Matrix genau dann hermitesch, wenn ihre transponierte Matrix A^{T} gleich ihrer konjugierten Matrix {\bar {A}} ist, also

A^{T}={\bar  {A}}

gilt. Eine hermitesche Matrix ist also bis auf komplexe Konjugation aller Einträge spiegelsymmetrisch bezüglich ihrer Hauptdiagonale.

Beispiele

Beispiele für hermitesche Matrizen sind (\mathrm {i} stellt die imaginäre Einheit dar):

{\begin{pmatrix}2\end{pmatrix}},\quad {\begin{pmatrix}1&{\mathrm  {i}}\\-{\mathrm  {i}}&1\end{pmatrix}},\quad {\begin{pmatrix}1&3-{\mathrm  {i}}&4\\3+{\mathrm  {i}}&-2&-6+{\mathrm  {i}}\\4&-6-{\mathrm  {i}}&5\end{pmatrix}}.

Allgemein haben hermitesche Matrizen der Größe 2\times 2, 3\times 3 und 4 \times 4 die Struktur

{\begin{pmatrix}a&{\bar  {b}}\\b&c\end{pmatrix}},\quad {\begin{pmatrix}a&{\bar  {b}}&{\bar  {c}}\\b&d&{\bar  {e}}\\c&e&f\end{pmatrix}},\quad {\begin{pmatrix}a&{\bar  {b}}&{\bar  {c}}&{\bar  {d}}\\b&e&{\bar  {f}}&{\bar  {g}}\\c&f&h&{\bar  {i}}\\d&g&i&j\end{pmatrix}}

mit reellen Zahlen auf der Hauptdiagonale.

Algebraische Eigenschaften

Einträge

Die Diagonaleinträge einer hermiteschen Matrix sind aufgrund von

a_{{jj}}=\overline {a_{{jj}}}

stets reell. Die Matrix aus den Realteilen einer hermiteschen Matrix ist stets symmetrisch, denn

{\mathrm  {Re}}(a_{{jk}})={\mathrm  {Re}}(a_{{kj}}),

und die Matrix aus den Imaginärteilen einer hermiteschen Matrix stets schiefsymmetrisch, denn

{\mathrm  {Im}}(a_{{jk}})=-{\mathrm  {Im}}(a_{{kj}}).

Daher wird eine hermitesche Matrix durch

n+{\frac  {n(n-1)}{2}}+{\frac  {n(n-1)}{2}}=n^{2}

reelle Zahlen eindeutig charakterisiert. Im Vergleich dazu wird eine allgemeine komplexe (n \times n)-Matrix durch 2n^{2} reelle Zahlen beschrieben, also gerade doppelt so viele.

Summe

Die Summe A + B zweier hermitescher Matrizen A,B\in \mathbb{C} ^{{n\times n}} ist stets wieder hermitesch, denn

(A+B)^{H}=A^{H}+B^{H}=A+B.

Zudem lässt sich jede komplexe quadratische Matrix M\in \mathbb{C} ^{{n\times n}} eindeutig als Summe M=A+B einer hermiteschen Matrix A und einer schiefhermiteschen Matrix B schreiben, indem

A={\frac  {1}{2}}(M+M^{H})   und   B={\frac  {1}{2}}(M-M^{H})

gewählt werden.

Skalarmultiplikation

Das Produkt cA einer hermiteschen Matrix A \in \C^{n \times n} mit einem Skalar c\in \mathbb{C} ist nur wieder hermitesch, wenn c reell ist, denn dann gilt

(cA)^{H}={{\bar  c}}A^{H}=cA.

Wenn c rein imaginär ist, dann ist das Produkt cA schiefhermitesch. Die hermiteschen Matrizen bilden demnach keinen Untervektorraum im \mathbb {C} -Vektorraum der komplexen quadratischen Matrizen, sondern lediglich einen Untervektorraum im \mathbb {R} -Vektorraum der komplexen quadratischen Matrizen. Dieser Untervektorraum hat die Dimension n^{2}, wobei die Standardmatrizen E_{{jj}}, 1\leq j\leq n, E_{{jk}}+E_{{kj}} und {\mathrm  {i}}(E_{{jk}}-E_{{kj}}), 1\leq j<k\leq n, darin eine Basis bilden. Im Raum der hermiteschen Matrizen bilden wiederum die reellen symmetrischen Matrizen einen Untervektorraum.

Produkt

Das Produkt AB zweier hermitescher Matrizen A,B\in \mathbb{C} ^{{n\times n}} ist im Allgemeinen nicht wieder hermitesch. Das Produkt hermitescher Matrizen ist genau dann hermitesch, wenn A und B kommutieren, also wenn AB=BA gilt, denn dann ergibt sich

(AB)^{H}=B^{H}A^{H}=BA=AB.

Insbesondere sind damit für eine hermitesche Matrix A auch alle ihre Potenzen A^{k} mit k\in \mathbb {N} und daher auch ihr Matrixexponential e^{A} wieder hermitesch. Für eine beliebige komplexe Matrix M\in \mathbb{C} ^{{m\times n}} sind sowohl die m \times m-Matrix MM^{H} als auch die n\times n-Matrix M^{H}M stets hermitesch.

Normalität

Eine hermitesche Matrix A \in \C^{n \times n} ist stets normal, denn es gilt

A^{H}A=AA=AA^{H}.

Jede hermitesche Matrix kommutiert also mit ihrer Adjungierten. Es gibt allerdings auch normale Matrizen, die nicht hermitesch sind, beispielsweise schiefhermitesche Matrizen.

Kongruenz

Jede komplexe Matrix B\in \mathbb{C} ^{{n\times n}}, die kongruent zu einer hermiteschen Matrix A\in \mathbb{C} ^{{n\times n}} ist, ist ebenfalls hermitesch, denn es gilt

B^{H}=(S^{H}AS)^{H}=S^{H}A^{H}S=S^{H}AS=B,

wobei S\in \mathbb{C} ^{{n\times n}} die zugehörige Transformationsmatrix ist. Matrizen, die ähnlich zu einer hermiteschen Matrix sind, müssen jedoch nicht notwendigerweise ebenfalls hermitesch sein.

Inverse

Ist eine hermitesche Matrix A \in \C^{n \times n} invertierbar, dann ist auch ihre Inverse A^{-1} wieder hermitesch, denn es gilt

(A^{{-1}})^{H}=(A^{H})^{{-1}}=A^{{-1}}.

Für eine reguläre hermitesche Matrix A sind demnach auch alle Potenzen A^{-k} mit k\in \mathbb {N} wieder hermitesch.

Spektrale Eigenschaften

Selbstadjungiertheit

Eine hermitesche Matrix A \in \C^{n \times n} ist stets selbstadjungiert, denn es gilt mit dem komplexen Standardskalarprodukt \langle \cdot ,\cdot \rangle

\langle Ax,y\rangle =(Ax)^{H}y=x^{H}A^{H}y=x^{H}Ay=\langle x,Ay\rangle

für alle Vektoren x,y \in \C^n. Es gilt auch die Umkehrung und jede komplexe selbstadjungierte Matrix ist hermitesch.

Eigenwerte

Die Eigenwerte einer hermiteschen Matrix A \in \C^{n \times n}, das heißt die Lösungen der Eigenwertgleichung Ax=\lambda x, sind stets reell. Ist nämlich \lambda \in \mathbb {C} ein komplexer Eigenwert von A mit zugehörigem Eigenvektor x \in \C^n, x\neq 0, dann gilt mit der Selbstadjungiertheit von A

\lambda \langle x,x\rangle =\langle \lambda x,x\rangle =\langle Ax,x\rangle =\langle x,Ax\rangle =\langle x,\lambda x\rangle ={\bar  \lambda }\langle x,x\rangle .

Nachdem \langle x,x\rangle \neq 0 für x\neq 0 ist, muss \lambda ={\bar  \lambda } gelten und der Eigenwert \lambda damit reell sein.

Vielfachheiten

Bei jeder hermiteschen Matrix A \in \C^{n \times n} stimmen die algebraischen und die geometrischen Vielfachheiten aller Eigenwerte überein. Ist nämlich \lambda ein Eigenwert von A mit geometrischer Vielfachheit m, dann existiert eine Orthonormalbasis \{x_{1},\ldots ,x_{m}\} des Eigenraums von \lambda , welche durch \{x_{{m+1}},\ldots ,x_{n}\} zu einer Orthonormalbasis des Gesamtraums \mathbb{C} ^{{n}} ergänzt werden kann. Mit der unitären Basistransformationsmatrix S=(x_{1}\mid \cdots \mid x_{n}) ergibt sich damit die transformierte Matrix

C=S^{{-1}}AS=S^{H}AS=\left({\begin{array}{c|c}\lambda I&0\\\hline 0&X\end{array}}\right)

als Blockdiagonalmatrix mit den Blöcken \lambda I\in \mathbb{C} ^{{m\times m}} und X\in \mathbb{C} ^{{(n-m)\times (n-m)}}. Für die Einträge c_{{jk}} von C mit \min\{j,k\}\leq m gilt nämlich mit der Selbstadjungiertheit von A und der Orthonormalität der Basisvektoren x_{1},\ldots ,x_{n}

c_{{jk}}=\langle x_{j},Ax_{k}\rangle =\langle Ax_{j},x_{k}\rangle =\lambda \langle x_{j},x_{k}\rangle =\lambda \delta _{{jk}},

wobei \delta _{{jk}} das Kronecker-Delta darstellt. Da x_{{m+1}},\ldots ,x_{n} nach Voraussetzung keine Eigenvektoren zum Eigenwert \lambda von A sind, kann \lambda kein Eigenwert von X sein. Die Matrix C besitzt daher nach der Determinantenformel für Blockmatrizen den Eigenwert \lambda genau mit algebraischer Vielfachheit m und aufgrund der Ähnlichkeit der beiden Matrizen damit auch A.

Diagonalisierbarkeit

Nachdem bei einer hermiteschen Matrix A \in \C^{n \times n} algebraische und geometrische Vielfachheiten aller Eigenwerte übereinstimmen und da Eigenvektoren zu verschiedenen Eigenwerten stets linear unabhängig sind, kann aus Eigenvektoren von A eine Basis des \mathbb {C} ^{n} gebildet werden. Daher ist eine hermitesche Matrix stets diagonalisierbar, das heißt, es gibt eine reguläre Matrix S\in \mathbb{C} ^{{n\times n}} und eine Diagonalmatrix D \in \C^{n \times n} (sogar D\in \mathbb{R} ^{{n\times n}}), sodass

S^{{-1}}AS=D

gilt. Die Matrix S=(x_{1}\mid \cdots \mid x_{n}) hat dabei die Eigenvektoren x_1, \ldots, x_n als Spalten und die Matrix D=\operatorname {diag}(\lambda _{1},\ldots ,\lambda _{n}) hat die zu diesen Eigenvektoren jeweils zugehörigen Eigenwerte \lambda _{1},\ldots ,\lambda _{n} auf der Diagonalen. Durch eine Permutation der Eigenvektoren kann dabei die Reihenfolge der Diagonaleinträge von D beliebig gewählt werden. Daher sind zwei hermitesche Matrizen genau dann zueinander ähnlich, wenn sie die gleichen Eigenwerte besitzen. Weiterhin sind zwei hermitesche Matrizen genau dann simultan diagonalisierbar, wenn sie kommutieren.

Unitäre Diagonalisierbarkeit

Die Eigenvektoren x_{j},x_{k} zu zwei verschiedenen Eigenwerten \lambda _{j}\neq \lambda _{k} einer hermiteschen Matrix A \in \C^{n \times n} sind stets orthogonal. Es gilt nämlich wiederum mit der Selbstadjungiertheit von A

\lambda _{j}\langle x_{j},x_{k}\rangle =\langle \lambda _{j}x_{j},x_{k}\rangle =\langle Ax_{j},x_{k}\rangle =\langle x_{j},Ax_{k}\rangle =\langle x_{j},\lambda _{k}x_{k}\rangle =\lambda _{k}\langle x_{j},x_{k}\rangle .

Da \lambda _{j} und \lambda_k als verschieden angenommen wurden folgt daraus dann \langle x_{j},x_{k}\rangle =0. Daher kann aus Eigenvektoren von A eine Orthonormalbasis des \mathbb {C} ^{n} gebildet werden. Damit ist eine hermitesche Matrix sogar unitär diagonalisierbar, das heißt, es gibt eine unitäre Matrix S, mit der

S^{H}AS=D

gilt. Diese Darstellung bildet die Grundlage für die Hauptachsentransformation und ist die einfachste Version des Spektralsatzes.

Kenngrößen

Aufgrund der Diagonalisierbarkeit einer hermiteschen Matrix A \in \C^{n \times n} gilt für ihre Spur

\operatorname {spur}(A)=\lambda _{1}+\ldots +\lambda _{n}

und für ihre Determinante entsprechend

\det(A)=\lambda _{1}\cdot \ldots \cdot \lambda _{n}.

Spur und Determinante einer hermiteschen Matrix sind demnach stets reell. Der Rang einer hermiteschen Matrix ist gleich der Anzahl der Eigenwerte ungleich Null, also mit dem Kronecker-Delta

\operatorname {rang}(A)=n-\left(\delta _{{\lambda _{1},0}}+\ldots +\delta _{{\lambda _{n},0}}\right).

Eine hermitesche Matrix ist genau dann invertierbar wenn keiner ihrer Eigenwerte Null ist. Die Spektralnorm einer hermiteschen Matrix ist

\|A\|_{2}=\max\{|\lambda _{1}|,\ldots ,|\lambda _{n}|\}

und damit gleich dem Spektralradius der Matrix. Die Frobeniusnorm ergibt sich aufgrund der Normalität entsprechend zu

\|A\|_{F}={\sqrt  {\lambda _{1}^{2}+\ldots +\lambda _{n}^{2}}}.

Abschätzungen

Nach dem Satz von Courant-Fischer liefert der Rayleigh-Quotient Abschätzungen für den kleinsten und den größten Eigenwert einer hermiteschen Matrix A \in \C^{n \times n} der Form

\min\{\lambda _{1},\ldots ,\lambda _{n}\}\leq {\frac  {\langle x,Ax\rangle }{\langle x,x\rangle }}\leq \max\{\lambda _{1},\ldots ,\lambda _{n}\}

für alle x \in \C^n mit x\neq 0. Gleichheit gilt dabei jeweils genau dann, wenn x ein Eigenvektor zum jeweiligen Eigenwert ist. Der kleinste und der größte Eigenwert einer hermiteschen Matrix kann demnach durch Minimierung beziehungsweise Maximierung des Rayleigh-Quotienten ermittelt werden. Eine weitere Möglichkeit zur Eigenwertabschätzung bieten die Gerschgorin-Kreise, die für hermitesche Matrizen die Form von Intervallen haben.

Definitheit

Hauptartikel: Definitheit

Ist A \in \C^{n \times n} eine hermitesche Matrix, dann wird der Ausdruck

Q_{A}(x)=x^{H}Ax=\langle x,Ax\rangle

mit x \in \C^n quadratische Form von A genannt. Je nachdem ob Q_{A}(x) größer als, größer gleich, kleiner als oder kleiner gleich null für alle x\neq 0 ist, heißt die Matrix A positiv definit, positiv semidefinit, negativ definit oder negativ semidefinit. Kann Q_{A}(x) sowohl positive, als auch negative Vorzeichen annehmen, so heißt A indefinit. Die Definitheit einer hermiteschen Matrix kann anhand der Vorzeichen ihrer Eigenwerte ermittelt werden. Sind alle Eigenwerte positiv, ist die Matrix positiv definit, sind sie alle negativ, ist die Matrix negativ definit und so weiter. Das Tripel bestehend aus den Anzahlen der positiven, negativen und Null-Eigenwerte einer hermiteschen Matrix wird Signatur der Matrix genannt. Nach dem Trägheitssatz von Sylvester bleibt die Signatur einer hermiteschen Matrix unter Kongruenztransformationen erhalten.

Verwendung

Hermitesche Sesquilinearformen

Ist V ein n-dimensionaler komplexer Vektorraum, dann lässt sich jede Sesquilinearform b\colon V\times V\to \mathbb{C} nach Wahl einer Basis \{v_{1},\ldots ,v_{n}\} für V durch die Darstellungsmatrix

A_{b}=(b(v_{j},v_{k}))\in \mathbb{C} ^{{n\times n}}

beschreiben. Ist die Sesquilinearform hermitesch, gilt also b(v,w)=\overline {b(w,v)} für alle v, w \in V, dann ist auch die Darstellungsmatrix A_b hermitesch. Umgekehrt definiert jede hermitesche Matrix A \in \C^{n \times n} mittels

b_{A}(x,y)=x^{H}Ay

eine hermitesche Sesquilinearform b_{A}\colon \mathbb{C} ^{n}\times \mathbb{C} ^{n}\to \mathbb{C} . Ist eine hermitesche Matrix A \in \C^{n \times n} zudem positiv definit, dann stellt b_{A} ein Skalarprodukt im unitären Raum \mathbb {C} ^{n} dar.

Selbstadjungierte Abbildungen

Ist (V, \langle \cdot, \cdot \rangle) ein n-dimensionaler komplexer Skalarproduktraum, dann lässt sich jede lineare Abbildung f \colon V \to V nach Wahl einer Orthonormalbasis \{ e_1, \ldots , e_n \} für V durch die Abbildungsmatrix

A_{f}=(a_{{jk}})\in \mathbb{C} ^{{n\times n}}

darstellen, wobei f(e_{k})=a_{{1k}}e_{1}+\ldots +a_{{nk}}e_{n} für k=1, \ldots , n ist. Die Abbildungsmatrix A_{f} ist nun genau dann hermitesch, wenn die Abbildung f selbstadjungiert ist. Dies folgt aus

\langle f(v),w\rangle =(A_{f}x)^{H}y=x^{H}A_{f}^{H}y=x^{H}A_{f}y=x^{H}(A_{f}y)=\langle v,f(w)\rangle ,

wobei v=x_{1}e_{1}+\ldots +x_{n}e_{n} und w=y_{1}e_{1}+\ldots +y_{n}e_{n} sind.

Projektionen und Spiegelungen

Ist wieder ( V, \langle \cdot , \cdot \rangle ) ein n-dimensionaler komplexer Skalarproduktraum und ist U ein m-dimensionaler Untervektorraum von V, wobei x_{1},\ldots ,x_{m} die Koordinatenvektoren einer Orthonormalbasis für U sind, dann ist die Orthogonalprojektionsmatrix auf diesen Untervektorraum

A_{U}=x_{1}x_{1}^{H}+\ldots +x_{m}x_{m}^{H}\in \mathbb{C} ^{{n\times n}}

als Summe hermitescher Rang-Eins-Matrizen ebenfalls hermitesch. Auch die Orthogonalprojektionsmatrix auf den Komplementärraum U^{\bot } ist aufgrund der Darstellung A_{{U^{\bot }}}=I-A_{U} stets hermitesch. Mit Hilfe der Projektionsmatrizen A_{U} und A_{{U^{\perp }}} lässt sich jeder Vektor v\in V in zueinander orthogonale Vektoren u\in U und u^\perp \in U^\perp zerlegen. Auch die Spiegelungsmatrix I-2A_{U} an einem Untervektorraum U ist stets hermitesch.

Lineare Gleichungssysteme

Das Auffinden der Lösung eines linearen Gleichungssystems Ax=b mit hermitescher Koeffizientenmatrix A vereinfacht sich, wenn man die Hermitizität der Koeffizientenmatrix ausnutzt. Auf Grund der Hermitizität lässt sich die Koeffizientenmatrix A als Produkt

A=LDL^{H}

mit einer unteren Dreiecksmatrix L mit lauter Einsen auf der Diagonale und einer Diagonalmatrix D schreiben. Diese Zerlegung wird beispielsweise bei der Cholesky-Zerlegung positiv definiter hermitescher Matrizen verwendet, um die Lösung des Gleichungssystems zu berechnen. Beispiele moderner Verfahren zur numerischen Lösung großer linearer Gleichungssysteme mit dünnbesetzter hermitescher Koeffizientenmatrix sind das CG-Verfahren und das MINRES-Verfahren.

Polarzerlegung

Jede quadratische Matrix A \in \C^{n \times n} kann mittels der Polarzerlegung auch als Produkt

A=QP

einer unitären Matrix Q\in \mathbb{C} ^{{n\times n}} und einer positiv semidefiniten hermiteschen Matrix P\in \mathbb{C} ^{{n\times n}} faktorisiert werden. Die Matrix P ergibt sich dabei als die Quadratwurzel von A^{H}A. Ist A regulär, so ist P positiv definit und die Polarzerlegung eindeutig mit Q=AP^{{-1}}.

Quantenmechanik

Die in der Quantenmechanik verwendeten Pauli-Matrizen

\sigma _{1}={\begin{pmatrix}0&1\\1&0\end{pmatrix}},\quad \sigma _{2}={\begin{pmatrix}0&-{\mathrm  {i}}\\{\mathrm  {i}}&0\end{pmatrix}},\quad \sigma _{3}={\begin{pmatrix}1&0\\0&-1\end{pmatrix}}

sind hermitesch und spurfrei. Die Pauli-Matrizen werden unter anderem zur Beschreibung von Isospin-Symmetrien verwendet. Die Gell-Mann-Matrizen sind hermitesche (3\times 3)-Matrizen, die in der Quantenchromodynamik eingesetzt werden.

Siehe auch

Trenner
Basierend auf einem Artikel in: externer Link Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 03.02. 2021