Variationsrechnung

Die Variationsrechnung ist ein Teilgebiet der Mathematik, das um die Mitte des 18. Jahrhunderts insbesondere von Leonhard Euler und Joseph-Louis Lagrange entwickelt wurde.

Zentrales Element der Variationsrechnung bildet die Euler-Lagrange-Gleichung

{\displaystyle \delta I(x,\delta x)=0},

die für {\displaystyle I=\int {\mathcal {L}}\,\mathrm {d} t} gerade zur Lagrange-Gleichung aus der klassischen Mechanik wird.

Grundlagen

Die Variationsrechnung beschäftigt sich mit reellen Funktionen von Funktionen, die auch Funktionale genannt werden. Solche Funktionale können etwa Integrale über eine unbekannte Funktion und ihre Ableitungen sein. Dabei interessiert man sich für stationäre Funktionen, also solche, für die das Funktional ein Maximum, ein Minimum (Extremale) oder einen Sattelpunkt annimmt. Einige klassische Probleme können elegant mit Hilfe von Funktionalen formuliert werden.

Das Schlüsseltheorem der Variationsrechnung ist die Euler-Lagrange-Gleichung, genauer „Euler-Lagrange’sche Differentialgleichung“. Diese beschreibt die Stationaritätsbedingung eines Funktionals. Wie bei der Aufgabe, die Maxima und Minima einer Funktion zu bestimmen, wird sie aus der Analyse kleiner Änderungen um die angenommene Lösung hergeleitet. Die Euler-Lagrangesche Differentialgleichung ist lediglich eine notwendige Bedingung. Weitere notwendige Bedingungen für das Vorliegen einer Extremalen lieferten Adrien-Marie Legendre und Alfred Clebsch sowie Carl Gustav Jacob Jacobi. Eine hinreichende, aber nicht notwendige Bedingung stammt von Karl Weierstraß.

Die Methoden der Variationsrechnung tauchen bei den Hilbertraum-Techniken, der Morsetheorie und bei der symplektischen Geometrie auf. Der Begriff Variation wird für alle Extremal-Probleme von Funktionen verwendet. Geodäsie und Differentialgeometrie sind Bereiche der Mathematik, in denen Variationen eine Rolle spielen. Besonders am Problem der minimalen Oberflächen, die etwa bei Seifenblasen auftreten, wurde viel gearbeitet.

Anwendungsgebiete

Die Variationsrechnung ist die mathematische Grundlage aller physikalischen Extremalprinzipien und deshalb besonders in der theoretischen Physik wichtig, so etwa im Lagrange-Formalismus der klassischen Mechanik bzw. der Bahnbestimmung, in der Quantenmechanik in Anwendung des Prinzips der kleinsten Wirkung und in der statistischen Physik im Rahmen der Dichtefunktionaltheorie. In der Mathematik wurde die Variationsrechnung beispielsweise bei der riemannschen Behandlung des Dirichlet-Prinzips für harmonische Funktionen verwendet. Auch in der Steuerungs- und Regelungstheorie findet die Variationsrechnung Anwendung, wenn es um die Bestimmung von Optimalreglern geht.

Ein typisches Anwendungsbeispiel ist das Brachistochronenproblem: Auf welcher Kurve in einem Schwerefeld von einem Punkt A zu einem Punkt B, der unterhalb, aber nicht direkt unter A liegt, benötigt ein Objekt die geringste Zeit zum Durchlaufen der Kurve? Von allen Kurven zwischen A und B minimiert eine den Ausdruck, der die Zeit des Durchlaufens der Kurve beschreibt. Dieser Ausdruck ist ein Integral, das die unbekannte, gesuchte Funktion, die die Kurve von A nach B beschreibt, und deren Ableitungen enthält.

Ein Hilfsmittel aus der Analysis reeller Funktionen in einer reellen Veränderlichen

Im Folgenden wird eine wichtige Technik der Variationsrechnung demonstriert, bei der eine notwendige Aussage für eine lokale Minimumstelle einer reellen Funktion mit nur einer reellen Veränderlichen in eine notwendige Aussage für eine lokale Minimumstelle eines Funktionals übertragen wird. Diese Aussage kann dann oftmals zum Aufstellen beschreibender Gleichungen für stationäre Funktionen eines Funktionals benutzt werden.

Sei ein Funktional {\displaystyle I\colon X\to \mathbb {R} } auf einem Funktionenraum X gegeben (X muss mind. ein topologischer Raum sein). Das Funktional habe an der Stelle x\in X ein lokales Minimum.

Durch den folgenden einfachen Trick tritt an die Stelle des „schwierig handhabbaren“ Funktionals I eine reelle Funktion F(\alpha ), die nur von einem reellen Parameter \alpha abhängt „und entsprechend einfacher zu behandeln ist“.

Mit einem \epsilon >0 sei (x_{\alpha })_{\alpha \in (-\epsilon ,\epsilon )} eine beliebige stetig durch den reellen Parameter \alpha parametrisierte Familie von Funktionen x_{\alpha }\in X. Dabei sei die Funktion x_{0} (d.h., x_{\alpha } für \alpha =0) gerade gleich der stationären Funktion x. Außerdem sei die durch die Gleichung

{\displaystyle F(\alpha ):=I(x_{\alpha })}

definierte Funktion {\displaystyle F\colon (-\epsilon ,\epsilon )\to \mathbb {R} } an der Stelle \alpha =0 differenzierbar.

Die stetige Funktion F nimmt dann an der Stelle \alpha =0 ein lokales Minimum an, da x_{0}=x ein lokales Minimum von I ist.

Aus der Analysis für reelle Funktionen in einer reellen Veränderlichen ist bekannt, dass dann \left.{\frac {\mathrm {d} }{\mathrm {d} \alpha }}F(\alpha )\right|_{\alpha =0}=0 gilt. Auf das Funktional übertragen heißt das

\left.{\frac {\mathrm {d} }{\mathrm {d} \alpha }}I(x_{\alpha })\right|_{\alpha =0}=0.

Beim Aufstellen der gewünschten Gleichungen für stationäre Funktionen wird dann noch ausgenutzt, dass die vorstehende Gleichung für jede beliebige („gutartige“) Familie (x_{\alpha })_{\alpha \in (-\epsilon ,\epsilon )} mit x_{0}=x gelten muss.

Das soll im nächsten Abschnitt anhand der Euler-Gleichung demonstriert werden.

Euler-Lagrange-Gleichung; Variationsableitung; weitere notwendige bzw. hinreichende Bedingungen

Gegeben seien zwei Zeitpunkte {\displaystyle t_{a},t_{e}\in \mathbb {R} } mit t_{e}>t_{a} und eine in allen Argumenten zweifach stetig differenzierbare Funktion, die Lagrangefunktion

{\displaystyle {\mathcal {L}}\colon (t_{a},t_{e})\times G\to \mathbb {R} \ ,\quad G\subset \mathbb {R} ^{n}\times \mathbb {R} ^{n}\ ,\quad G{\text{ offen}}}.

Beispielsweise ist bei der Lagrangefunktion des freien relativistischen Teilchens mit Masse m und c=1

{\mathcal {L}}(t,x,v)=-m{\sqrt {1-v^{2}}}

das Gebiet G das kartesische Produkt von \mathbb {R} ^{3} und dem Inneren der Einheitskugel.

Als Funktionenraum X wird die Menge aller zweifach stetig differenzierbaren Funktionen

{\displaystyle x\colon [t_{a},t_{e}]\to \mathbb {R} ^{n}}

gewählt, die zum Anfangszeitpunkt t_{a} und zum Endzeitpunkt t_{e} die fest vorgegebenen Orte x_{a} bzw. x_{e} einnehmen:

x(t_{a})=x_{a}\ ,\quad x(t_{e})=x_{e}

und deren Werte zusammen mit den Werten ihrer Ableitung in G liegen,

{\displaystyle \forall t\in [t_{a},t_{e}]\colon \left(x(t),{\frac {\mathrm {d} x}{\mathrm {d} t}}(t)\right)\in G}.

Mit der Lagrangefunktion {\mathcal {L}} wird nun das Funktional {\displaystyle I\colon X\to \mathbb {R} }, die Wirkung, durch

I(x):=\int _{t_{a}}^{t_{e}}{\mathcal {L}}(t,x(t),{\dot {x}}(t))\,\mathrm {d} t

definiert. Gesucht ist diejenige Funktion x\in X, die die Wirkung I minimiert.

Entsprechend der im vorhergehenden Abschnitt vorgestellten Technik untersuchen wir dazu alle differenzierbaren einparametrigen Familien (x_{\alpha })_{\alpha \in (-\epsilon ,\epsilon )}\subset X, die für \alpha =0 durch die stationäre Funktion x des Funktionals gehen (es gilt also x_{0}=x). Genutzt wird die im letzten Abschnitt hergeleitete Gleichung

{\displaystyle 0=\left.{\frac {\mathrm {d} }{\mathrm {d} \alpha }}I(x_{\alpha })\right|_{\alpha =0}=\left[{\frac {\mathrm {d} }{\mathrm {d} \alpha }}\int _{t_{a}}^{t_{e}}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\,\mathrm {d} t\right]_{\alpha =0}}.

Hereinziehen der Differentiation nach dem Parameter \alpha in das Integral liefert mit der Kettenregel

{\displaystyle {\begin{aligned}0&=\left[\int _{t_{a}}^{t_{e}}\left(\partial _{2}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\partial _{\alpha }x_{\alpha }(t)+\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\partial _{\alpha }{\dot {x}}_{\alpha }(t)\right)\,\mathrm {d} t\right]_{\alpha =0}\\&=\left[\int _{t_{a}}^{t_{e}}\partial _{2}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\partial _{\alpha }x_{\alpha }(t)\,\mathrm {d} t+\int _{t_{a}}^{t_{e}}\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\partial _{\alpha }{\dot {x}}_{\alpha }(t)\,\mathrm {d} t\right]_{\alpha =0}.\end{aligned}}}

Dabei stehen \partial _{2},\partial _{3} für die Ableitungen nach dem zweiten bzw. dritten Argument und \partial _{\alpha } für die partielle Ableitung nach dem Parameter \alpha .

Es wird sich später als günstig erweisen, wenn im zweiten Integral statt \partial _{\alpha }{\dot {x}}_{\alpha }(t) wie im ersten Integral \partial _{\alpha }x_{\alpha }(t) steht. Das erreicht man durch partielle Integration:

0=\left[\int _{t_{a}}^{t_{e}}\partial _{2}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\,\partial _{\alpha }x_{\alpha }(t)\,\mathrm {d} t+\left[\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\,\partial _{\alpha }x_{\alpha }(t)\right]_{t=t_{a}}^{t_{e}}\right.
-\left.\int _{t_{a}}^{t_{e}}{\frac {\mathrm {d} }{\mathrm {d} t}}\left(\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\right)\,\partial _{\alpha }x_{\alpha }(t)\,\mathrm {d} t\right]_{\alpha =0}

An den Stellen t=t_{a} und t=t_{e} gelten unabhängig von \alpha die Bedingungen x_{\alpha }(t_{a})=x_{a} und x_{\alpha }(t_{e})=x_{e}. Ableiten dieser beiden Konstanten nach \alpha liefert \partial _{\alpha }x_{\alpha }(t_{a})=\partial _{\alpha }x_{\alpha }(t_{e})=0. Deshalb verschwindet der Term \left[\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\partial _{\alpha }x_{\alpha }(t)\right]_{t=t_{a}}^{t_{e}} und man erhält nach Zusammenfassen der Integrale und Ausklammern von \partial _{\alpha }x_{\alpha } die Gleichung

{\displaystyle 0=\left[\int _{t_{a}}^{t_{e}}\left(\partial _{2}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))-{\frac {\mathrm {d} }{\mathrm {d} t}}\partial _{3}{\mathcal {L}}(t,x_{\alpha }(t),{\dot {x}}_{\alpha }(t))\right)\,\partial _{\alpha }x_{\alpha }(t)\,\mathrm {d} t\right]_{\alpha =0}}

und mit x_{\alpha }(t)|_{\alpha =0}=x(t)

0=\int _{t_{a}}^{t_{e}}\left(\partial _{2}{\mathcal {L}}(t,x(t),{\dot {x}}(t))-{\frac {\mathrm {d} }{\mathrm {d} t}}\partial _{3}{\mathcal {L}}(t,x(t),{\dot {x}}(t))\right)\left[\partial _{\alpha }x_{\alpha }(t)\right]_{\alpha =0}\,\mathrm {d} t.

Außer zum Anfangszeitpunkt und zum Endzeitpunkt unterliegt x_{\alpha }(t) keinen Einschränkungen. Damit sind die Zeitfunktionen t\mapsto \left[\partial _{\alpha }x_{\alpha }(t)\right]_{\alpha =0} bis auf die Bedingungen \partial _{\alpha }x_{\alpha }(t_{a})=\partial _{\alpha }x_{\alpha }(t_{e})=0 beliebige zweimal stetig differenzierbare Zeitfunktionen. Die letzte Gleichung kann nach dem Fundamentallemma der Variationsrechnung also nur dann für alle zulässigen \left[\partial _{\alpha }x_{\alpha }\right]_{\alpha =0} erfüllt sein, wenn der Faktor \partial _{2}{\mathcal {L}}(t,x(t),{\dot {x}}(t))-{\frac {\mathrm {d} }{\mathrm {d} t}}\partial _{3}{\mathcal {L}}(t,x(t),{\dot {x}}(t)) im gesamten Integrationsintervall gleich null ist (das wird in den Bemerkungen etwas detaillierter erläutert). Damit erhält man für die stationäre Funktion x die Euler-Lagrange-Gleichung

{\displaystyle \partial _{2}{\mathcal {L}}(t,x(t),{\dot {x}}(t))-{\frac {\mathrm {d} }{\mathrm {d} t}}\partial _{3}{\mathcal {L}}(t,x(t),{\dot {x}}(t))=0},

die für alle t\in (t_{a},t_{e}) erfüllt sein muss.

Die angegebene, zum Verschwinden zu bringende Größe bezeichnet man auch als Eulerableitung der Lagrangefunktion {\mathcal {L}},

{\frac {{\hat {\partial }}{\mathcal {L}}}{{\hat {\partial }}x}}(t):=\left.{\frac {\partial {\mathcal {L}}(t,x,{\dot {x}})}{\partial x}}\right|_{(t,x(t),{\dot {x}}(t))}-{\frac {\mathrm {d} }{\mathrm {d} t}}\,\left(\left.{\frac {\partial {\mathcal {L}}(t,x,{\dot {x}})}{\partial {\dot {x}}}}\right|_{(t,x(t),{\dot {x}}(t))}\right)\,.

Vor allem in Physikbüchern wird die Ableitung \left.\partial _{\alpha }\right|_{\alpha =0} als Variation bezeichnet. Dann ist \delta x=\left.\partial _{\alpha }x_{\alpha }\right|_{\alpha =0} die Variation von x. Die Variation der Wirkung

\delta I(x,\delta x)=\int \mathrm {d} t\,{\frac {\delta I}{\delta x(t)}}\delta x(t)

ist wie bei \mathrm {d} f=\sum _{i}(\partial _{i}f)\mathrm {d} x^{i} eine Linearform in den Variationen der Argumente, ihre Koeffizienten {\frac {\delta I}{\delta x(t)}} heißen Variationsableitung des Funktionals I. Sie ist im betrachteten Fall die Eulerableitung der Lagrangefunktion

{\displaystyle {\frac {\delta I}{\delta x(t)}}={\frac {{\hat {\partial }}{\mathcal {L}}}{{\hat {\partial }}x}}(t)}.

Bemerkungen

Die Funktion t\mapsto b(t) für t_{0}=1 und {\displaystyle \epsilon =0{,}1}>

Bei der Herleitung der Euler-Lagrange-Gleichung wurde berücksichtigt, dass eine stetige Funktion a, die für alle mindestens zweimal stetig differenzierbaren Funktionen b mit b(t_{a})=b(t_{e})=0 bei Integration über

\int _{t_{a}}^{t_{e}}a(t)b(t)\,\mathrm {d} t

den Wert null ergibt, identisch gleich null sein muss.

Das ist leicht einzusehen, wenn man berücksichtigt, dass es zum Beispiel mit

{\displaystyle b(t):={\begin{cases}0&{\text{für }}t\leq t_{0}-\epsilon {\text{ oder }}t\geq t_{0}+\epsilon \\(t-t_{0}+\epsilon )^{3}(t_{0}-t+\epsilon )^{3}&{\text{für }}t\in (t_{0}-\epsilon ,t_{0}+\epsilon )\end{cases}}}

eine zweimal stetig differenzierbare Funktion gibt, die in einer \epsilon -Umgebung eines willkürlich herausgegriffenen Zeitpunktes t_{0}\in (t_{a},t_{e}) positiv und ansonsten null ist. Gäbe es eine Stelle t_{0}, an der die Funktion a größer oder kleiner null wäre, so wäre sie aufgrund der Stetigkeit auch noch in einer ganzen Umgebung {\displaystyle (t_{0}-\epsilon ,t_{0}+\epsilon )} dieser Stelle größer bzw. kleiner null. Mit der eben definierten Funktion b ist dann jedoch das Integral \int _{t_{a}}^{t_{b}}a(t)b(t)\,\mathrm {d} t im Widerspruch zur Voraussetzung an a ebenfalls größer bzw. kleiner null. Die Annahme, dass a an einer Stelle t_{0} ungleich null wäre, ist also falsch. Die Funktion a ist also wirklich identisch gleich null.

Ist der Funktionenraum X ein affiner Raum, so wird die Familie (x_{\alpha })_{\alpha \in (-\epsilon ,\epsilon )} in der Literatur oftmals als Summe x_{\alpha }(t):=x(t)+\alpha h(t) mit einer frei wählbaren Zeitfunktion h festgelegt, die der Bedingung h(t_{a})=h(t_{e})=0 genügen muss. Die Ableitung \left.\partial _{\alpha }I(x_{\alpha })\right|_{\alpha =0} ist dann gerade die Gateaux-Ableitung \left.\partial _{\alpha }I(x+\alpha h)\right|_{\alpha =0} des Funktionals I an der Stelle x in Richtung h. Die hier vorgestellte Version erscheint dem Autor etwas günstiger, wenn die Funktionenmenge X kein affiner Raum mehr ist (wenn sie beispielsweise durch eine nichtlineare Nebenbedingung eingeschränkt ist; siehe etwa gaußsches Prinzip des kleinsten Zwanges). Sie ist ausführlicher in[1] dargestellt und lehnt sich an die Definition von Tangentialvektoren an Mannigfaltigkeiten an.

Im Falle eines weiteren, einschränkenden Funktionals {\displaystyle J(x)=\int j(t,x,{\dot {x}},{\ddot {x}},\dots ,x^{(n)})d^{d}t}, der den Funktionenraum X dadurch einschränkt, dass {\displaystyle J(x)=0} gelten soll, kann man analog zum reellen Fall das Verfahren der Lagrange-Multiplikatoren anwenden:

{\displaystyle {\frac {\delta I}{\delta x_{i}}}=\lambda {\frac {\delta J}{\delta x_{i}}}}

für beliebiges i=1,\dotsc ,n und ein festes \lambda \in \mathbb{R}.

Verallgemeinerung für höhere Ableitung und Dimensionen

Die obige Herleitung mittels partieller Integration lässt sich auf Variationsprobleme der Art

{\displaystyle I(\varphi )=\int {\mathcal {L}}(\varphi (x),\partial _{1}\varphi (x),\dots ,\partial _{d}\varphi (x),\dots )\mathrm {d} ^{d}x}

übertragen, wobei in den Abhängigkeiten Ableitungen {\displaystyle D^{\alpha }\varphi (x)} (siehe Multiindex-Notation) auch höherer Ordnung auftauchen, etwa bis zur Ordnung {\displaystyle \vert \alpha \vert \leq N}. In diesem Fall lautet die Euler-Lagrange-Gleichung

{\displaystyle \sum _{\vert \alpha \vert \leq N}(-1)^{\vert \alpha \vert }{\frac {\delta {\mathcal {L}}}{\delta (D^{\alpha }\varphi (x))}}=0},

wobei die Euler-Ableitung als

{\displaystyle {\frac {\delta {\mathcal {L}}}{\delta (D^{\alpha }\varphi (x))}}:=\left.{\frac {\partial {\mathcal {L}}}{\partial (D^{\alpha }\varphi )}}\right\vert _{\varphi =\varphi (x),\partial _{1}\varphi =\partial _{1}\varphi (x),\dots }}

zu verstehen ist (und wobei {\displaystyle D^{\alpha }\varphi } in selbsterklärender Weise symbolisch die entsprechende Abhängigkeit von \mathcal L repräsentiert, {\displaystyle D^{\alpha }\varphi (x)} steht für den konkreten Wert der Ableitung von \varphi (x)). Insbesondere wird auch über \alpha =0 summiert.

Anmerkungen

  1. Wladimir I. Smirnow: Lehrgang der höheren Mathematik (= Hochschulbücher für Mathematik. Bd. 5a). Teil 4, 1. (14. Auflage, deutschsprachige Ausgabe der 6. russischen Auflage). VEB Deutscher Verlag der Wissenschaften, Berlin 1988, ISBN 3-326-00366-8.
Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 20.06. 2021