Pseudoinverse

Die Pseudoinverse einer Matrix ist ein Begriff aus dem mathematischen Teilgebiet der linearen Algebra, der auch in der numerischen Mathematik eine wichtige Rolle spielt. Sie ist eine Verallgemeinerung der inversen Matrix auf singuläre und nichtquadratische Matrizen, weshalb sie häufig auch als verallgemeinerte Inverse bezeichnet wird. Der häufigste Anwendungsfall für Pseudoinversen ist die Lösung linearer Gleichungssysteme und linearer Ausgleichsprobleme.

Eine erste Form wurde von E. H. Moore (1920) und Roger Penrose (1955) beschrieben. Die nach ihnen benannte Moore-Penrose-Inverse ist nicht die einzige Möglichkeit, eine Pseudoinverse zu definieren, häufig wird aber Pseudoinverse synonym mit Moore-Penrose-Inverse benutzt. Die Moore-Penrose-Inverse ist für alle Matrizen mit Einträgen aus den reellen oder komplexen Zahlen definiert und eindeutig. Mit ihr kann man bei linearen Ausgleichsproblemen die optimale Lösung mit kleinster euklidischer Norm berechnen.

Eine numerisch robuste Methode zur Bestimmung der Moore-Penrose-Inversen baut auf der Singulärwertzerlegung auf.

Allgemeine Pseudoinversen

Die Verallgemeinerung der Bildung der Inversen einer Matrix auf singuläre Matrizen wird in der Literatur nicht einheitlich gehandhabt und orientiert sich oftmals an der zu lösenden Aufgabenstellung (einige Beispiele solcher Verallgemeinerungen sind weiter unten aufgeführt).

Eine Definition von verallgemeinerten Inversen zumindest die folgenden drei Forderungen erfüllen:

  1. Für reguläre Matrizen sollte sich eindeutig die gewöhnliche Inverse ergeben.
  2. Im verallgemeinerten Sinne sollten auch singuläre Matrizen invertierbar sein (wenigstens einige, nicht notwendigerweise alle).
  3. Für singuläre Matrizen sollten die verallgemeinerten Inversen ähnliche Eigenschaften haben wie gewöhnliche Inverse regulärer Matrizen.

Die Moore-Penrose-Inverse

Die Moore-Penrose-Inverse (auch einfach Pseudoinverse) einer Matrix A\in {\mathbb  C}^{{m\times n}} ist die eindeutig bestimmte Matrix A^{+}\in {\mathbb  C}^{{n\times m}}, welche die folgenden Eigenschaften („Moore-Penrose-Bedingungen“) erfüllt:

Dabei bezeichnet A^* die adjungierte Matrix zu A. Bei Matrizen mit Einträgen aus den reellen Zahlen ist diese identisch mit der zu A transponierten Matrix A^{T}.

Die Moore-Penrose-Inverse kann auch durch einen Grenzwert definiert werden:

{\begin{aligned}A^{+}&=\lim _{{\delta \to 0}}(A^{*}A+\delta E)^{{-1}}A^{*}\\&=\lim _{{\delta \to 0}}A^{*}(AA^{*}+\delta E)^{{-1}}.\end{aligned}}

Mit E wird hier die Einheitsmatrix bezeichnet. Dieser Grenzwert existiert auch, wenn (AA^{*})^{{-1}} und (A^{*}A)^{{-1}} nicht existieren.

Rechenregeln

(A^{+})^{+}=A
\overline {A}^{+}=\overline {A^{+}}
(A^{*})^{+}=(A^{+})^{*}
(\lambda A)^{+}=\lambda ^{{-1}}A^{+} für \lambda \neq 0

Spezialfälle

Sind die Spalten der Matrix A linear unabhängig, dann ist A^{*}A invertierbar. In diesem Fall gilt die folgende Gleichung

A^{+}=(A^{*}A)^{{-1}}A^{*}.

Nimmt man die erste Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand \delta E. Daraus folgt, dass A^+ eine Linksinverse zu A ist.

A^{+}A=E

Sind die Zeilen der Matrix A linear unabhängig, dann ist AA^{*} invertierbar. In diesem Fall gilt die folgende Gleichung

A^{+}=A^{*}(AA^{*})^{{-1}}.

Nimmt man die zweite Grenzwertdefinition für die Moore-Penrose-Inverse, so verschwindet der Summand \delta E. Daraus folgt, dass A^+ eine Rechtsinverse zu A ist.

AA^{+}=E

Sind sowohl Spalten als auch die Zeilen einer Matrix unabhängig, dann ist die Matrix invertierbar, und die Pseudoinverse stimmt mit der Inversen überein.

Ist das Produkt AB zweier Matrizen definiert und eine der beiden eine unitäre Matrix, dann gilt

(AB)^{+}=B^{+}A^{+}.

Man kann die Pseudoinverse auch für Skalare und Vektoren definieren, indem man diese als Matrizen betrachtet. Bei Skalaren ist die Pseudoinverse von null wieder null und für alle anderen Werte x ist sie x^{-1}. Für Vektoren gilt

x^{+}\!={\begin{cases}0^{T},&{\text{wenn }}x=0,\\{\frac  {x^{*}}{x^{*}x}},&{\text{sonst}}.\end{cases}}

Diese Behauptungen lassen sich überprüfen, indem man die Kriterien für die Moore-Penrose-Inverse nachprüft.

Ist die Matrix A hermitesch (oder symmetrisch im reellen Fall), dann ist A^+ ebenfalls hermitesch (symmetrisch). Aus dem Spektralsatz folgt in diesem Fall die Zerlegung

UAU^{*}=D

und damit

A^{+}=U^{*}D^{+}U,

wobei die Pseudoinverse D^{+} der Diagonalmatrix D durch

d_{{ii}}^{+}={\begin{cases}0,&{\text{wenn }}d_{{ii}}=0,\\{\frac  {1}{d_{{ii}}}},&{\text{sonst}}\end{cases}}

für alle Diagonaleinträge gegeben ist.

Berechnung

A^{+}=C^{*}(CC^{*})^{{-1}}(B^{*}B)^{{-1}}B^{*}.
Hat A vollen Zeilenrang, das heißt, es gilt k=m, dann kann für B die Einheitsmatrix gewählt werden und obige Formel reduziert sich zu
A^{+}=A^{*}(AA^{*})^{{-1}}.
In ähnlicher Weise gilt für eine Matrix A mit vollem Spaltenrang, das heißt, es gilt k=n, die Gleichung
A^{+}=(A^{*}A)^{{-1}}A^{*}.
A^{+}=V\Sigma ^{+}U^{*}.
Bei einer Diagonalmatrix wie \Sigma \in \C^{m \times n} entsteht die Pseudoinverse, indem man die von null verschiedenen Elemente invertiert, also {\displaystyle \Sigma ^{+}\in \mathbb {C} ^{n\times m}} bildet mit
(\Sigma )_{{ij}}^{{+}}={\begin{cases}{\frac  {1}{\sigma _{i}}},&{\text{falls }}i=j\wedge \sigma _{i}\neq 0,\\0,&{\text{sonst}}.\end{cases}}

Das Verfahren, bei dem man die Matrix A^{*}A benötigt, wird zwar bei der numerischen Berechnung der Lösung überbestimmter Gleichungssysteme der Bequemlichkeit halber öfter benutzt, ist jedoch numerisch instabil, da die Kondition der Matrix quadriert wird. Als stabile und effiziente numerische Methode gilt die Verwendung der QR-Zerlegung. Das auf der Singulärwertzerlegung aufbauende Verfahren ist das aufwendigste, aber auch das numerisch gutartigste. Das auf der Ränderung beruhende Verfahren bietet einen Kompromiss zwischen Aufwand und numerischer Stabilität.

Anwendungen

Ist das Gleichungssystem Ax=b nicht lösbar, so lässt sich mit der Pseudoinversen die Lösung nach der Methode der kleinsten Quadrate, also die mit kleinster euklidischer Norm \|Ax-b\|_{2} als {\bar  x}=A^{+}b berechnen.

Gibt es für das Gleichungssystem Ax=b unendlich viele Lösungen, so kann man diese über

x=A^{+}b+(E-A^{+}A)y,\quad y\in {\mathbb  C}^{n}

bestimmen. Dabei ist x diejenige Lösung des Gleichungssystems, die von y den kleinsten Abstand bezüglich der euklidischen Norm hat.

Ausgewählte weitere Versionen von verallgemeinerten Inversen

Drazin-Inverse

Sei A\in\R^{n\times n} eine Matrix mit Index i\in\N (der Index von A ist die minimale ganze Zahl i\geq 1 für die A^{i} und A^{{(i+1)}} den gleichen Kern haben). Dann ist die Drazin-Inverse diejenige eindeutig definierte n\times n-Matrix A^{D}, die den Bedingungen

genügt. Sie wurde von Michael Drazin eingeführt.

Berechnung

Zur Berechnung kann man die Zerlegung

T{\begin{pmatrix}\Lambda &0\\0&N\end{pmatrix}}T^{{-1}}=A

der Matrix A\in {\mathbb  {R}}^{{n\times n}} in Jordan-Normalform nutzen, wobei \Lambda der reguläre Teil der Jordan-Form sei und N nilpotent. Die Drazin-Inverse ergibt sich dann zu

A^{D}:=T{\begin{pmatrix}\Lambda ^{{-1}}&0\\0&0\end{pmatrix}}T^{{-1}}.

Die Drazin-Inverse einer Matrix mit Index i=1 (für die also N gleich der Nullmatrix ist) bezeichnet man auch als Gruppen-Inverse. Die Gruppen-Inverse ist eine Pseudoinverse nach der Definition von Koecher.

Anwendungen

1. Eine wichtige Anwendung für die Drazin-Inverse ist die analytische Darstellung der Lösung zeitinvarianter linearer Deskriptorsysteme. Als Beispiel diene die Differenzengleichung

Ax_{{k+1}}=x_{k}

eines zeitdiskreten Deskriptorsystems mit der reellen n\times n-Matrix A. Die Lösung \{x_{k}\}_{{k=0,1,2,\ldots }}\subset \mathbb{R} ^{n} der Differenzengleichung erfüllt die Gleichungen A^{k}x_{k}=x_{0} mit k=0,1,2,\ldots . Anfangswerte x_{0} sind also nur dann konsistent, wenn sie in allen Bildern der Matrizen A^{k} liegen (sonst bricht die Lösung nach endlich vielen Schritten ab). Die Lösung der Differenzengleichung ist dann x_{k}=(A^{D})^{k}x_{0}.

2. Für reelle oder komplexe n\times n-Matrizen A mit Index i gilt die Gleichung

\int _{0}^{t}\exp(A{\bar  t})\,d{\bar  t}=\sum _{{k=0}}^{{i-1}}{\frac  {t^{{k+1}}}{(k+1)!}}A^{k}(I-AA^{D})+(\exp(At)-I)A^{D}.

Damit lässt sich die Sprungantwort eines linearen zeitinvarianten dynamischen Systems

{\begin{aligned}{\dot  x}&=Ax+bu\\y&=c^{T}x\end{aligned}}

mit Eingangssignal

u(t)={\begin{cases}0&{\text{bei }}t<0\\1&{\text{bei }}t\geq 0,\end{cases}}

Zustandsvektor x:\mathbb{R} \rightarrow \mathbb{R} ^{{n\times 1}} (x(0) Nullvektor), Systemmatrix A\in\R^{n\times n} und Ein- beziehungsweise Ausgabevektoren b,c\in \mathbb{R} ^{{n\times 1}} in der Form

y(t)={\begin{cases}0&{\text{bei }}t<0\\c^{T}\left(\sum _{{k=0}}^{{i-1}}{\frac  {t^{{k+1}}}{(k+1)!}}A^{k}(I-AA^{D})+(\exp(At)-I)A^{D}\right)b&{\text{bei }}t\geq 0\end{cases}}

darstellen.

Restringierte verallgemeinerte Inversen – die Bott-Duffin-Inverse

Bei manchen praktischen Aufgabenstellungen ist die Lösung x eines linearen Gleichungssystems

Ax=b\qquad ({\text{mit vorgegebenem }}A\in \mathbb{R} ^{{m\times n}}{\text{ und }}b\in \mathbb{R} ^{m})

nur dann zulässig, wenn sie innerhalb eines gewissen linearen Teilraumes L von \mathbb {R} ^{m} liegt. Man sagt auch, dass das Problem durch ein restringiertes lineares Gleichungssystem beschrieben wird (englisch constrained linear equation).

Im Folgenden werde der orthogonale Projektor auf L mit P_{L} bezeichnet. Das restringierte lineare Gleichungssystem

Ax=b\qquad x\in L

ist genau dann lösbar, wenn das für das unrestringierte Gleichungssystem

(AP_{L})x=b\qquad x\in \mathbb{R} ^{m}

zutrifft. Ist der Unterraum L ein echter Teilraum von \mathbb {R} ^{m}, so ist die Systemmatrix des unrestringierten Problems (AP_{L}) auch dann singulär, wenn sich die Systemmatrix A des restringierten Problems invertieren lässt (in diesem Fall gilt m=n). Das erklärt, dass für die Lösung restringierter Probleme auch Pseudoinverse herangezogen werden. Man bezeichnet eine Pseudoinverse von (AP_{L}) dann auch als L-restringierte Pseudoinverse von A. Diese Definition scheint zunächst der Forderung 1 aus Abschnitt Allgemeine Pseudoinversen zu widersprechen. Dieser Widerspruch relativiert sich jedoch wieder, wenn man bedenkt, dass die L-restringierte Pseudoinverse für bijektives A auf dem interessierenden Raum L injektiv ist und dass der Bildraum die gleiche Dimension wie L hat.

Ein Beispiel für eine Pseudoinverse mit der sich die Lösung eines restringierten Problems ermitteln lässt, ist die Bott-Duffin-Inverse von A bzgl. L, die durch die Gleichung

A_{L}^{{(-1)}}:=P_{L}(AP_{L}+P_{{L^{\perp }}})^{{-1}}

definiert ist, falls die auf der rechten Seite auftretende gewöhnliche Inverse existiert.

Anwendungen

Die Bott-Duffin-Inverse kann zur Lösung der Gleichungen eines affin-linearen elektrischen Netzwerkes benutzt werden, wenn sich die Relation zwischen Zweigspannungsbelegungen  v\in \mathbb{R} ^{n} und Zweigstrombelegungen  i\in \mathbb{R} ^{n} in der Form

Ai+u=u^{0}\qquad i\in L,\;u\in L^{\perp }

darstellen lassen, wobei L der Raum aller die kirchhoffschen Knotengleichungen erfüllenden Strombelegungen i ist und u^{0} die Spaltenmatrix der in die Zweige eingespeisten unabhängigen Quellspannungen sein soll. An dieser Stelle fließt der graphentheoretische Satz von Tellegen ein, der besagt, dass die Räume der Zweigspannungsbelegungen und Zweigstrombelegungen, die die kirchhoffschen Maschen- beziehungsweise Knotengleichungen erfüllen, orthogonal komplementär zueinander sind.

Eine Eigenschaft der Bott-Duffin-Inversen ist, dass mit ihrer Hilfe die zu einer vorgegebenen Quellspannungsbelegung u^{0} zugehörigen Zweigströme

i=A_{L}^{{(-1)}}u^{0}

und Zweigspannungen

u=(E-AA_{L}^{{(-1)}})u^{0}

berechnet werden können (E steht für die Einheitsmatrix).

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 15.03. 2023