Ein Eigenvektor einer Abbildung ist in der linearen Algebra ein vom Nullvektor verschiedener Vektor, dessen Richtung durch die Abbildung nicht verändert wird. Ein Eigenvektor wird also nur skaliert und man bezeichnet den Skalierungsfaktor als Eigenwert der Abbildung.
Eigenwerte charakterisieren wesentliche Eigenschaften linearer Abbildungen, etwa ob ein entsprechendes lineares Gleichungssystem eindeutig lösbar ist oder nicht. In vielen Anwendungen beschreiben Eigenwerte auch physikalische Eigenschaften eines mathematischen Modells. Die Verwendung der Vorsilbe „Eigen-“ für charakteristische Größen in diesem Sinne lässt sich auf eine Veröffentlichung von David Hilbert aus dem Jahre 1904 zurückführen.
Die im Folgenden beschriebene mathematische Problemstellung heißt spezielles Eigenwertproblem und bezieht sich nur auf lineare Abbildungen eines endlichdimensionalen Vektorraums in sich (Endomorphismen), wie sie durch quadratische Matrizen dargestellt werden.
Die Frage, die sich hier stellt, lautet: Unter welchen Bedingungen ist eine Matrix ähnlich zu einer Diagonalmatrix?
Ist
ein Vektorraum über einem Körper
(in Anwendungen meist der Körper
der reellen Zahlen oder der
Körper
der komplexen Zahlen) und
eine lineare Abbildung von
in sich selbst (Endomorphismus),
so bezeichnet man als Eigenvektor einen Vektor
,
der durch
auf ein Vielfaches
von sich selbst mit
abgebildet wird:
Den Faktor
nennt man dann den zugehörigen Eigenwert.
Anders formuliert: Hat für ein
die Gleichung
eine Lösung
(der Nullvektor ist natürlich immer eine Lösung), so heißt
Eigenwert von
Jede Lösung
heißt Eigenvektor von
zum Eigenwert
Hat der Vektorraum eine endliche Dimension
so kann jeder Endomorphismus
durch eine quadratische
beschrieben werden. Die obige Gleichung lässt sich dann als
Matrizengleichung
schreiben, wobei
hier einen Spaltenvektor bezeichnet. Man nennt in diesem Fall eine Lösung
Eigenvektor und
Eigenwert der Matrix
Diese Gleichung kann man auch in der Form
schreiben, wobei
die Einheitsmatrix
bezeichnet, und äquivalent zu
oder
umformen.
Bei kleinen Matrizen können die Eigenwerte symbolisch (exakt) berechnet werden. Bei großen Matrizen ist dies oft nicht möglich, sodass hier Verfahren der numerischen Mathematik zum Einsatz kommen.
Die Gleichung
definiert die Eigenwerte und stellt ein homogenes lineares
Gleichungssystem dar. Da
vorausgesetzt wird, ist dieses genau dann lösbar, wenn
gilt. Diese Determinante
heißt „charakteristisches
Polynom“. Es handelt sich um ein normiertes
Polynom
-ten
Grades in
Seine Nullstellen,
also die Lösungen der Gleichung
über
sind die Eigenwerte. Da ein Polynom vom Grad
höchstens
Nullstellen hat, gibt es auch höchstens
Eigenwerte. Zerfällt das Polynom vollständig, so gibt es genau
Nullstellen, wobei mehrfache Nullstellen mit ihrer Vielfachheit gezählt
werden.
Ist
ein Eigenwert der linearen Abbildung
dann nennt man die Menge aller Eigenvektoren zu diesem Eigenwert vereinigt mit
dem Nullvektor den Eigenraum
zum Eigenwert
Der Eigenraum ist durch
definiert. Falls die Dimension
des Eigenraums größer als 1 ist, wenn es also mehr als einen linear
unabhängigen Eigenvektor zum Eigenwert
gibt, so nennt man den zum Eigenraum zugehörigen Eigenwert entartet.
Die Dimension
des Eigenraums
wird als geometrische Vielfachheit von
bezeichnet.
Eine Verallgemeinerung des Eigenraums ist der Hauptraum.
Für den Rest dieses Abschnittes sei
Dann besitzt jede
genau
Eigenwerte, wenn man diese mit ihren Vielfachheiten zählt. Mehrfaches Vorkommen
eines bestimmten Eigenwertes fasst man zusammen und erhält so nach Umbenennung
die Aufzählung
der verschiedenen Eigenwerte mit ihren Vielfachheiten
Dabei ist
und
Die eben dargestellte Vielfachheit eines Eigenwertes als Nullstelle des charakteristischen Polynoms bezeichnet man als algebraische Vielfachheit.
Die Menge der Eigenwerte wird Spektrum genannt und
geschrieben, sodass also
gilt. Als Spektralradius bezeichnet man den größten Betrag aller Eigenwerte.
Gilt für einen Eigenwert, dass seine algebraische Vielfachheit gleich seiner geometrischen Vielfachheit ist, so spricht man von einem halbeinfachen Eigenwert (aus dem englischen ‚semisimple‘). Dies entspricht genau der Diagonalisierbarkeit der Blockmatrix zum gegebenen Eigenwert.
Kennt man die Eigenwerte sowie ihre algebraischen und geometrischen Vielfachheiten (siehe unten), kann man die Jordansche Normalform der Matrix erstellen.
Es sei die quadratische Matrix
gegeben. Subtraktion der mit
multiplizierten Einheitsmatrix
von
ergibt:
Ausrechnen der Determinante dieser Matrix (mit Hilfe der Regel von Sarrus) liefert:
Die Eigenwerte sind die Nullstellen dieses Polynoms, man erhält:
Der Eigenwert 2 hat algebraische Vielfachheit 2, weil er doppelte Nullstelle des charakteristischen Polynoms ist.
Während die exakte Berechnung der Nullstellen des charakteristischen Polynoms schon für dreireihige Matrizen nicht so einfach ist, wird sie für große Matrizen meist unmöglich, sodass man sich dann auf das Bestimmen von Näherungswerten beschränkt. Hierzu werden Verfahren bevorzugt, die sich durch numerische Stabilität und geringen Rechenaufwand auszeichnen. Dazu gehören Methoden für dichtbesetzte kleine bis mittlere Matrizen, wie
sowie spezielle Methoden für symmetrische Matrizen, als auch Methoden für dünnbesetzte große Matrizen, wie
Des Weiteren gibt es noch Methoden zur Abschätzung, z.B. mithilfe
die immer eine grobe Abschätzung (unter gewissen Bedingungen sogar genaue Bestimmung) zulassen.
Für einen Eigenwert
lassen sich die Eigenvektoren aus der Gleichung
bestimmen. Die Eigenvektoren spannen den Eigenraum
auf, dessen Dimension als geometrische Vielfachheit des Eigenwertes
bezeichnet wird. Für einen Eigenwert
der geometrischen Vielfachheit
lassen sich also
linear unabhängige Eigenvektoren
finden, sodass die Menge aller Eigenvektoren zu
gleich der Menge der Linearkombinationen
von
ist. Die Menge
heißt dann eine Basis aus Eigenvektoren des zum Eigenwert
gehörenden Eigenraumes.
Die geometrische Vielfachheit eines Eigenwertes kann man also auch als die maximale Anzahl linear unabhängiger Eigenvektoren zu diesem Eigenwert definieren.
Die geometrische Vielfachheit ist höchstens gleich der algebraischen Vielfachheit.
Gegeben ist wie in obigem Beispiel die quadratische Matrix
Die Eigenwerte
wurden oben schon berechnet. Zunächst werden hier die Eigenvektoren (und der
durch die Eigenvektoren aufgespannte Eigenraum)
zum Eigenwert
berechnet:
Man muss also das folgende lineare Gleichungssystem lösen:
Bringt man die Matrix auf obere Dreiecksform, so erhält man
Die gesuchten Eigenvektoren sind alle Vielfachen des Vektors
(jedoch nicht das Nullfache des Vektors, da der Nullvektor niemals ein
Eigenvektor ist).
Obwohl der Eigenwert
eine algebraische Vielfachheit von 2 hat, existiert nur ein linear
unabhängiger Eigenvektor (der Eigenraum zu dem Eigenwert ist
eindimensional); also hat dieser Eigenwert eine geometrische Vielfachheit
von 1. Das hat eine wichtige Konsequenz: Die Matrix ist nicht diagonalisierbar.
Man kann nun versuchen, die Matrix stattdessen in die Jordansche
Normalform überzuführen. Dazu muss ein weiterer Eigenvektor zu diesem
Eigenwert „erzwungen“ werden. Solche Eigenvektoren nennt man generalisierte
Eigenvektoren oder Hauptvektoren.
Für den Eigenwert
geht man genauso vor:
Wieder bringt man die Matrix auf Dreiecksform:
Hier ist die Lösung der Vektor
wieder mit allen seinen vom Nullvektor verschiedenen Vielfachen.
Speziell für reelle symmetrische oder komplexe hermitesche Matrizen gilt:
Für kommutierende diagonalisierbare (insbesondere symmetrische) Matrizen ist es möglich, ein System gemeinsamer Eigenvektoren zu finden:
Kommutieren zwei Matrizen
und
(gilt also
)
und ist
ein nichtentarteter Eigenwert (d.h. der zugehörige Eigenraum ist
eindimensional) von
mit Eigenvektor
so gilt
Auch
ist also ein Eigenvektor von
zum Eigenwert
Da dieser Eigenwert nicht entartet ist, muss
ein Vielfaches von
sein. Das bedeutet, dass
auch ein Eigenvektor der Matrix
ist.
Aus diesem einfachen Beweis geht hervor, dass die Eigenvektoren zu nichtentarteten Eigenwerten mehrerer paarweise kommutierender Matrizen Eigenvektoren aller dieser Matrizen sind.
Allgemein können auch für kommutierende diagonalisierbare Matrizen mit entarteten Eigenwerten gemeinsame Eigenvektoren gefunden werden. Aus diesem Grund können mehrere paarweise kommutierende diagonalisierbare Matrizen auch simultan (d.h. mit einer Basistransformation für alle Matrizen) diagonalisiert werden.
Manchmal bezeichnet man einen so definierten Eigenvektor auch als Rechtseigenvektor und definiert dann entsprechend den Begriff des Linkseigenvektors durch die Gleichung
Linkseigenvektoren finden sich z.B. in der Stochastik bei der Berechnung von stationären Verteilungen von Markow-Ketten mittels einer Übergangsmatrix.
Wegen
sind die Linkseigenvektoren von
gerade die Rechtseigenvektoren der transponierten Matrix
Bei normalen
Matrizen fallen Links- und Rechtseigenvektoren zusammen.
Allgemeiner kann man auch quadratische Matrizen
und
und die Gleichung
untersuchen. Dieses verallgemeinerte Eigenwertproblem wird hier jedoch nicht weiter betrachtet.
In der Funktionalanalysis
betrachtet man lineare Abbildungen zwischen linearen Funktionenräumen (also
lineare Abbildungen zwischen unendlichdimensionalen Vektorräumen). Meistens
spricht man von linearen
Operatoren anstatt von linearen Abbildungen. Sei
ein Vektorraum über einem Körper
mit
und
ein linearer Operator. In der Funktionalanalysis ordnet man
ein Spektrum zu. Dieses besteht aus allen
für die der Operator
nicht invertierbar ist. Dieses Spektrum muss jedoch nicht - wie bei
Abbildungen zwischen endlichdimensionalen Vektorräumen - diskret sein. Denn
im Gegensatz zu den linearen Abbildungen zwischen endlichdimensionalen
Vektorräumen, die nur
verschiedene Eigenwerte haben, haben lineare Operatoren im Allgemeinen unendlich
viele Elemente im Spektrum. Daher ist es zum Beispiel möglich, dass das Spektrum
von linearen Operatoren Häufungspunkte
besitzt. Um die Untersuchung des Operators und des Spektrums zu vereinfachen,
unterteilt man das Spektrum in unterschiedliche Teilspektren. Elemente, die die
Gleichung
für ein
lösen, nennt man wie in der linearen Algebra Eigenwerte. Die Gesamtheit
der Eigenwerte nennt man das Punktspektrum von
Wie in der linearen Algebra wird jedem Eigenwert ein Raum von Eigenvektoren
zugeordnet. Da die Eigenvektoren meist als Funktionen aufgefasst werden, spricht
man auch von Eigenfunktionen.
Sei
offen. Dann besitzt der Ableitungsoperator
ein nichtleeres Punktspektrum. Betrachtet man nämlich für alle
die Gleichung
und wählt
dann sieht man, dass die Gleichung
für alle
erfüllt ist. Also ist jedes
ein Eigenwert mit zugehöriger Eigenfunktion
Durch Lösung eines Eigenwertproblems berechnet man
Eigenwerte spielen in der Quantenmechanik eine besondere Rolle. Physikalische Größen wie z.B. der Drehimpuls werden hier durch Operatoren repräsentiert. Messbar sind nur die Eigenwerte der Operatoren. Hat z.B. der Hamiltonoperator, der die Energie eines quantenmechanischen Systems repräsentiert, ein diskretes Spektrum, so kann die Energie nur diskrete Werte annehmen, was z.B. für die Energieniveaus in einem Atom typisch ist. So stellen bei den Lösungen der bekannten Schrödingergleichung (im Jahr 1926 durch den Physiker Erwin Schrödinger aufgestellt) die Eigenwerte die erlaubten Energiewerte der Elektronen und die Eigenfunktionen die zugehörigen Wellenfunktionen der Elektronen dar.
Auch die Unmöglichkeit der gleichzeitigen präzisen Messung gewisser Größen (z.B. von Ort und Impuls), wie von der Heisenbergschen Unschärferelation ausgedrückt, ist letztlich darauf zurückzuführen, dass für die jeweiligen Operatoren kein gemeinsames System von Eigenvektoren existiert.