Schur-Komplement
In der linearen Algebra bezeichnet das Schur-Komplement eine Matrix, die sich aus den einzelnen Blöcken einer größeren Matrix berechnet. Das Schur-Komplement ist nach Issai Schur benannt.
Definition
Sei M eine -Matrix, die aus vier Teilblöcken zusammengesetzt ist:
- .
Dabei sei A eine -, B eine -, C eine - und D eine -Matrix. Des Weiteren sei vorausgesetzt, dass A invertierbar ist.
Die Matrix
heißt Schur-Komplement von A in M.
Interpretation als Ergebnis der Gaußelimination
Das Schur-Komplement lässt sich als Ergebnis eines Schritts des Gaußschen Eliminationsverfahrens auf Ebene der Matrixblöcke interpretieren: Die formale Anwendung der Gaußelimination auf die -Blockmatrix entspricht der Multiplikation von links mit der Matrix
wobei und die - bzw. >-Einheitsmatrizen bezeichnen. Das Schur-Komplement erscheint dann im unteren, rechten Block des Matrizenprodukts:
Daher kann die Inverse von aus der Inversen von und von seinem Schur-Komplement berechnet werden:
oder auch
Eigenschaften
Unter der Voraussetzung, dass M symmetrisch ist, ist M dann und nur dann positiv definit, wenn A und das Schur-Komplement S positiv definit sind.
Analog zur oben angegebenen Definition lässt sich auch das Schur-Komplement zum Block D bilden.
Für zwei invertierbare Matrizen gleicher Größe und mit den Teilmatrizen bzw. seien und die entsprechenden Schur-Komplemente von in , bzw. in . Mit der Definition des folgenden Matrix-Produkts
- und wenn das Schur-Komplement von bezeichnet, das in entsprechender Weise wie für gebildet wird, gilt, dass das Schur-Komplement des Produkts gleich dem Produkt der Schur-Komplemente ist:
Anwendung bei der Lösung linearer Gleichungssysteme
Das Schur-Komplement kann zur Lösung von linearen Gleichungssystemen der Form
eingesetzt werden. Dabei bezeichnen x und f Vektoren der Länge n und y und g Vektoren der Länge m. Ausgeschrieben lautet dieses Gleichungssystem:
Multiplikation der ersten Gleichung von links mit und Addition zur zweiten Gleichung liefert
Wenn man also A und S invertieren kann, dann kann man diese Gleichung nach y auflösen und dann
berechnen, um die Lösung des ursprünglichen Problems zu erhalten.
Die Lösung eines -Systems reduziert sich damit auf die Lösung eines - und eines -Systems.
Eine wichtige Bemerkung in diesem Zusammenhang ist die Tatsache, dass die inverse Matrix in manchen iterativen numerischen Algorithmen wie Krylov-Unterraum-Verfahren nicht explizit gebildet werden muss. Wie eine genauere Betrachtung der zu lösenden Gleichungssysteme zeigt, wird nur die Wirkung von auf die Vektoren und, im Laufe der iterativen Lösung von , auf die vorherige Lösung benötigt, sodass die Bildung der Inversen als Lösung eines linearen Gleichungssystems aufgefasst werden kann. Gerade bei dünn besetzten Matrizen ist dadurch eine sehr effiziente Lösung möglich.
Siehe auch
Literatur
- Edgar Brunner, Ullrich Munzel: Nichtparametrische Datenanalyse. Springer, Berlin 2002, ISBN 3-540-43375-9.
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 19.05. 2021