Website durchsuchen

Autonome Differentialgleichung

Als autonome Differentialgleichung oder autonomes System bezeichnet man einen Typ von gewöhnlichen Differentialgleichungen, der nicht explizit von der unabhängigen Variable abhängt.

Zum Beispiel ist die Differentialgleichung für den harmonischen Oszillator

{\displaystyle \ y''(x)+\lambda \cdot y(x)=0.}

autonom, die Mathieusche Differentialgleichung

{\displaystyle \ y''(x)+[\lambda +\gamma \cos(x)]\cdot y(x)=0.}

dagegen nicht, da sie explizit von der unabhängigen Variable x abhängt (ein Parameter wird „von außen“ periodisch verändert). Die unabhängige Variable steht in den Anwendungen häufig für die Zeit.

Definition

Eine gewöhnliche Differentialgleichung

{\displaystyle y^{(n)}(x)=f\left(y(x),y'(x),...,y^{(n-1)}(x),x\right)}

heißt autonome Differentialgleichung, wenn die Funktion f nicht explizit von der unabhängigen Variable x abhängt, das heißt wenn

{\displaystyle y^{(n)}(x)=f\left(y(x),y'(x),...,y^{(n-1)}(x)\right)}

für alle x im Definitionsbereich gilt.

Nach Übergang zu einem höherdimensionalen System erster Ordnung kann man, für einen n-dimensionalen Phasenraum D, die Funktion f von D nach R^{n} auch als Vektorfeld betrachten. Das heißt man führt neue Variable ein:

{\displaystyle y_{i}\,(x)=y^{(i)}\,(x)} mit {\displaystyle i=1,...,n-1}

mit:

{\displaystyle y_{0}\,(x)=y\,(x)} (der gesuchten Funktion)
{\displaystyle y_{1}\,(x)=y'\,(x)={\frac {dy_{0}}{dx}}}
{\displaystyle y_{2}\,(x)=y^{(2)}\,(x)={\frac {dy_{1}}{dx}}}
{\displaystyle \cdot \cdot \cdot }
{\displaystyle y_{n-1}\,(x)={\frac {dy_{n-2}}{dx}}}
{\displaystyle {\frac {dy_{n-1}}{dx}}=f(y_{0},y_{1},...,y_{n-1})}

Dadurch erhält man ein System von n gekoppelten Differentialgleichungen in n Variablen.

Die Kurvenintegrale (also die Lösungen) der autonomen Differentialgleichungen sind translationsinvariant. Ist {\displaystyle y(x)} eine Lösung einer autonomen Differentialgleichung, so ist auch {\displaystyle y(x+c)} für alle c \in \R eine Lösung ebendieser Gleichung bei geeignet verschobener Anfangsbedingung.

In vielen Anwendungen ist die unabhängige Variable die Zeit t.

Ein nicht-autonomes System in n Variablen {\displaystyle y,y_{1},...,y_{n-1}}, in dem f noch explizit von der unabhängigen Variablen x abhängt, kann man durch Hinzufügung einer weiteren Variablen {\displaystyle y_{n}} formal autonom machen:

{\displaystyle {\frac {dy_{n}}{dx}}=1}

womit man erhält

{\displaystyle {\frac {dy_{n-1}}{dx}}=f(y,y_{1},...,y_{n-1},y_{n})}

Lösungsmethoden

Die Gleichung erster Ordnung (die unabhängige Variable ist im Folgenden  t)

{\displaystyle {\frac {dx}{dt}}=f(x)}

kann durch Trennung der Variablen gelöst werden, formal:

{\displaystyle dt={\frac {dx}{f(x)}}}
{\displaystyle t+C=\int {\frac {dx}{f(x)}}}

mit einer Konstanten C. Bei Gleichungen zweiter Ordnung kann man häufig wie oben nach Einführung neuer Variabler ebenfalls durch Trennung der Variablen lösen. Sei

{\displaystyle {\frac {d^{2}x}{dt^{2}}}=f(x,{\frac {dx}{dt}})}

mit der neuen Variablen

{\displaystyle v={\frac {dx}{dt}}\,\,\,} (Gleichung 1)

und

{\displaystyle {\frac {d^{2}x}{dt^{2}}}={\frac {dv}{dt}}={\frac {dx}{dt}}{\frac {dv}{dx}}=v{\frac {dv}{dx}}}

erhält man:

{\displaystyle v{\frac {dv}{dx}}=f(x,v)\,\,\,} (Gleichung 2)

Das ist ein gekoppeltes System von zwei Gleichungen (Gleichung 1,2). Wendet man in der Gleichung 1 Trennung der Variablen an erhält man:

{\displaystyle t+C_{1}=\int {\frac {dx}{v(x)}}}

Für v(x) muss man die Gleichung 2 lösen. Ist

{\displaystyle f(x,v)=f(x)}

kann man dort ebenfalls Trennung der Variablen ausführen und erhält:

{\displaystyle {\frac {v^{2}}{2}}+C_{2}=\int f(x)dx}

und insgesamt:

{\displaystyle t+C_{1}=\pm \int {\frac {dx}{\sqrt {2\int f(x)dx-2\,C_{2}}}}}

Ebenfalls mit Trennung der Variablen kann man den Fall:

{\displaystyle f(x,v)=v^{n}\,f(x)}

behandeln, wie man durch Einsetzen in die Gleichung 2 sieht.

Beispiele

Autonome Systeme kommen häufig in der Theorie Dynamischer Systeme vor. Ein Beispiel für eine autonome Differentialgleichung ist die in der theoretischen Biologie verwendete logistische Differentialgleichung und der Lorenz-Attraktor in der Chaostheorie. Beide sind nichtlinear. In der Hamiltonschen Mechanik (mit klassischem Phasenraum aus Orts- und Impulsvariablen) hat man es mit solchen Systemen zu tun falls die Hamiltonfunktion nicht explizit zeitabhängig ist.

Qualitative Theorie der Fixpunkte der Differentialgleichung

Als Fixpunkt (Gleichgewichtspunkt) der Differentialgleichung, betrachtet als Vektorfeld (Fluss) im Phasenraum (die Tangenten der Trajektorien (Bahnen) sind {\displaystyle {\vec {x}}_{t}(t)}) bezeichnet man eine Stelle {\displaystyle {\vec {x}}_{f}}, an der die autonome gewöhnliche Differentialgleichung (unabhängige Variable sei die Zeit t, Ableitung mit unterem Index) eine Nullstelle hat:[1]

{\displaystyle {\vec {x}}_{t}={\vec {f}}({\vec {x}})=0}
Asymptotisch stabiler Fixpunkt: Senke

An diesem Punkt ist das dynamische System stationär (zeitunabhängig). Ein Fixpunkt ist stabil, falls Trajektorien aus einer Umgebung des Fixpunkts in der Umgebung bleiben, und asymptotisch stabil, falls Trajektorien aus einer Umgebung (die maximale Erweiterung ist das Einzugsgebiet (Basin of attraction) des Fixpunkts) für t\to \infty gegen den Fixpunkt konvergieren (ein Fall, der häufig bei Problemen mit Dämpfung auftritt). Das ist ein Beispiel eines Attraktors (es gibt auch kompliziertere Attraktoren zum Beispiel mit Grenzzyklus, hier werden nur solche vom Typ isolierter Punkte betrachtet).

Man linearisiere {\displaystyle {\vec {f}}({\vec {x}})} um den Fixpunkt

{\displaystyle {\vec {u}}={\vec {x}}-{\vec {x}}_{f}}:
{\displaystyle {\vec {u}}_{t}=A\cdot {\vec {u}}+{\vec {g}}({\vec {u}})}

mit Termen höherer Ordnung in {\displaystyle {\vec {g}}({\vec {u}})}, die vernachlässigt werden, und einer Matrix A, der Jacobi-Matrix:

{\displaystyle A=\left({\frac {\partial f_{i}}{\partial x_{j}}}\right)\,\,} (ausgewertet an der Stelle {\displaystyle {\vec {x}}={\vec {x}}_{f}})

so dass der Fall einer konstanten, als nicht-singulär angenommenen Matrix vorliegt. Der Einfachheit wird hier nur der ebene Fall behandelt {\displaystyle {\vec {x}}=\left(x_{1},x_{2}\right)}. Dann hat die Matrix A, da sie reell ist, die beiden komplex konjugierten Eigenwerte \lambda_1, \lambda_2, die aus der charakteristischen Gleichung bestimmt werden:

Neutrale Stabilität: periodische Bewegung um ein Zentrum, elliptischer Fixpunkt
{\displaystyle det(\lambda -A)={\lambda }^{2}-\lambda \,Sp(A)+det(A)=0}
{\displaystyle \lambda _{1,2}={\frac {1}{2}}\left(Sp(A)\pm {\sqrt {{(Sp(A))}^{2}-4\,det(A)}}\right)}

ausgedrückt durch die Determinante {\displaystyle det(A)=\lambda _{1}\cdot \lambda _{2}} und Spur {\displaystyle Sp(A)=\lambda _{1}+\lambda _{2}} der Matrix A. Die Lösung der linearisierten Gleichung ist:

{\displaystyle {\vec {u}}(t)=\sum _{i=1,2}u_{i}(0){\vec {e_{i}}}e^{\lambda _{i}\,t}}
Sattelpunkt

Die Diskussion für den linearisierten Fall gilt lokal. Für sogenannte Hyperbolische Fixpunkte[2], für die die Realteile der Eigenwerte des linearisierten Systems ungleich Null sind (worunter Quellen, Senken, Sattelpunkte und Foki (Spiralen) fallen), lässt sich aus dem linearisierten Verhalten auf das Verhalten des nichtlinearen Systems nahe dem Fixpunkt schließen (Satz von Hartman-Grobman).

Man unterscheidet zwischen konservativen Systemen, in denen

{\displaystyle \nabla {\vec {v}}=0}

gilt (zum Beispiel Hamiltonsche Systeme ohne Zeitabhängigkeit der Hamiltonfunktion nach dem Satz von Liouville) und solchen, in denen dies nicht gilt (dissipative Systeme). Bei konservativen Systemen, in denen das Phasenraumvolumen erhalten ist, gibt es als Fixpunkte nur elliptische Fixpunkte (Zentren) und Sattelpunkte (nicht Quellen, Senken oder Spiralen), und Grenzzyklen sind auch nicht erlaubt. Grenzzyklen sind als mögliche Grenzmengen des Phasenraumflusses zuerst von Henri Poincaré betrachtet worden (der für zwei Dimensionen geltende Satz von Poincaré-Bendixson macht hier Existenzaussagen). Grenzzyklen können bei Variation der Parameter des Systems durch Hopf-Bifurkation aus Fixpunkten entstehen (das entspricht dem Fall, dass {\displaystyle det(A)\neq 0} und {\displaystyle Sp(A)\to 0}). Bei einer Sattel-Knoten-Bifurkation kollidieren zwei Fixpunkte. Das entspricht dem Übergang von {\displaystyle det(A)>0} nach {\displaystyle det(A)<0} (von Knoten zu Sattelpunkten und umgekehrt).

In drei Dimensionen hat man drei Eigenwerte und je nachdem deren Real- und Imaginärteil verschwindet, positiv oder negativ ist mehr Möglichkeiten: zum Beispiel neben Sattel und Knoten wie oben stabile und instabile Fokus-Knoten und Sattel-Foki. Es gibt auch neue Arten nicht-hyperbolischer Fixpunkte, die bei Zuschalten der nichtlinearen Terme nicht strukturell stabil sind. Deren Verhalten hängt vielmehr von den nichtlinearen Termen ab und es entstehen neue Typen nicht-hyperbolischer Fixpunkte etwa bei Hopf-Bifurkationen oder Sattel-Knoten-Bifurkationen. Zum Beispiel tritt die Bogdanov-Takens-Bifurkation in nichtlinearen Systemen auf, in denen zwei der Eigenwerte verschwinden (sie besteht aus einer Kombination von Sattel-Knoten-Bifurkation und Hopf-Bifurkation).

Galerie

Literatur

Einzelnachweise

  1. Darstellung im Folgenden nach Beltrami, Mathematics for Dynamics Modeling, Academic Press 1987. Auch dargestellt in Hirsch, Smale, Differential Equations, Dynamical Systems and Linear Algebra, Academic Press 1974 und der Neuauflage Hirsch, Smale, Devaney, Differential Equations, Dynamical Systems and Introduction to Chaos, Academic Press 2004, dort Klassifikation ebener Systeme nach Determinante und Spur der Matrix zusammengefasst in der Abbildung S. 63
  2. Manchmal wird auch im engeren Sinn ein Sattelpunkt als hyperbolischer Fixpunkt, der Fall eines Zentrums als elliptisch bezeichnet.
Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung:  Jena, den: 25.11. 2017