Lemma von Itō

Das Lemma von Itō (auch Itō-Formel), benannt nach dem japanischen Mathematiker Itō Kiyoshi, ist eine zentrale Aussage in der stochastischen Analysis. In seiner einfachsten Form ist es eine Integraldarstellung für stochastische Prozesse, die Funktionen eines Wiener-Prozesses sind. Es entspricht damit der Kettenregel bzw. Substitutionsregel der klassischen Differential- und Integralrechnung.

Version für Wiener-Prozesse

Sei (W_{t})_{{t\geq 0}} ein (Standard-)Wiener-Prozess und h\colon \R \to \R eine zweimal stetig differenzierbare Funktion. Dann gilt

{\displaystyle h(W_{t})=h(W_{0})+\int _{0}^{t}h'(W_{s})\,{\rm {d}}W_{s}+{\frac {1}{2}}\int _{0}^{t}h''(W_{s})\,{\rm {d}}s\,.}

Dabei ist das erste Integral als Itō-Integral und das zweite Integral als ein gewöhnliches Riemann-Integral (über die stetigen Pfade des Integranden) zu verstehen.

Für den durch {\displaystyle Y_{t}=h(W_{t})} für t \geq 0 definierten Prozess lautet diese Darstellung in Differentialschreibweise

{\displaystyle {\rm {d}}Y_{t}=h'(W_{t})\,{\rm {d}}W_{t}+{\frac {1}{2}}h''(W_{t})\,{\rm {d}}t\,.}

Version für Itō-Prozesse

Ein stochastischer Prozess {\displaystyle (X_{t})_{t\geq 0}} heißt Itō-Prozess, falls

{\displaystyle X_{t}=X_{0}+\int _{0}^{t}a_{s}\,{\rm {d}}s+\int _{0}^{t}b_{s}\,{\rm {d}}W_{s}}

für zwei stochastische Prozesse a_{s}, b_{s} gilt (genaueres dazu unter stochastische Integration). In Differentialschreibweise:

{\displaystyle {\rm {d}}X_{t}=a_{t}\,{\rm {d}}t+b_{t}\,{\rm {d}}W_{t}\,.}

Ist {\displaystyle h\colon \mathbb {R} _{+}\times \mathbb {R} \to \mathbb {R} } eine in der ersten Komponente einmal und in der zweiten zweimal stetig differenzierbare Funktion, so ist auch der durch {\displaystyle Y_{t}:=h(t,X_{t})} definierte Prozess ein Itō-Prozess, und es gilt[1]

{\displaystyle {\begin{aligned}{\rm {d}}Y_{t}&={\frac {\partial h}{\partial t}}(t,X_{t})\,{\rm {d}}t+{\frac {\partial h}{\partial x}}(t,X_{t})\,{\rm {d}}X_{t}+{\frac {1}{2}}{\frac {\partial ^{2}h}{\partial x^{2}}}(t,X_{t})({\rm {d}}X_{t})^{2}\\&=\left({\frac {\partial h}{\partial x}}(t,X_{t})\,a_{t}+{\frac {\partial h}{\partial t}}(t,X_{t})+{\frac {1}{2}}{\frac {\partial ^{2}h}{\partial x^{2}}}(t,X_{t})\,b_{t}^{2}\right){\rm {d}}t+{\frac {\partial h}{\partial x}}(t,X_{t})\,b_{t}\,{\rm {d}}W_{t}\,.\end{aligned}}}

Hierbei bezeichnen {\displaystyle {\tfrac {\partial h}{\partial t}}} und {\displaystyle {\tfrac {\partial h}{\partial x}}} die partiellen Ableitungen der Funktion h nach der ersten bzw. zweiten Variablen. Die zweite Darstellung folgt aus der ersten durch Einsetzen von {\displaystyle ({\rm {d}}X_{t})^{2}=b_{t}^{2}\,{\rm {d}}t} und Zusammenfassen der {\displaystyle {\rm {d}}t}- und {\displaystyle {\rm {d}}W_{t}}-Terme.

Version für Semimartingale

Sei {\displaystyle (X_{t})_{t\geq 0}=(X_{t}^{1},\dotsc ,X_{t}^{d})_{t\geq 0}} ein \mathbb {R} ^{d}-wertiges Semimartingal und sei {\displaystyle F\in C^{2}(\mathbb {R} ^{d},\mathbb {R} )}. Dann ist {\displaystyle (F(X_{t}))_{t\geq 0}} wieder ein Semimartingal und es gilt

{\displaystyle {\begin{aligned}F(X_{t})-F(X_{0})=&\sum _{j=1}^{d}\int _{0}^{t}{\frac {\partial F}{\partial x^{j}}}(X_{s-}){\rm {d}}X_{s}^{j}+{\frac {1}{2}}\sum _{j,k=1}^{d}\int _{0}^{t}{\frac {\partial ^{2}F}{\partial x^{j}\partial x^{k}}}(X_{s-}){\rm {d}}[X^{j},X^{k}]_{s}^{c}\\&{}+\sum _{0<s\leq t}\left(F(X_{s})-F(X_{s-})-\sum _{j=1}^{d}{\frac {\partial F}{\partial x^{j}}}(X_{s-})\Delta X_{s}^{j}\right).\end{aligned}}}

Hierbei ist {\displaystyle \textstyle X_{s-}=\lim _{u\uparrow s}X_{u}} der linksseitige Grenzwert und {\displaystyle \Delta X_{s}^{j}=X_{s}^{j}-X_{s-}^{j}} der zugehörige Sprungprozess. Mit {\displaystyle [X^{j},X^{k}]^{c}} wird die quadratische Kovariation der stetigen Anteile der Komponenten {\displaystyle X^{j}} und X^{k} bezeichnet. Falls X ein stetiges Semimartingal ist, verschwindet die letzte Summe in der Formel und es gilt {\displaystyle [X^{j},X^{k}]^{c}=[X^{j},X^{k}]}.

Beispiele

{\displaystyle S_{t}=S_{0}e^{rt-{\frac {1}{2}}\sigma ^{2}t+\sigma W_{t}}}
eine Lösung der stochastischen Differentialgleichung von Black und Scholes
{\displaystyle {\rm {d}}S_{t}=rS_{t}\,{\rm {d}}t+\sigma S_{t}\,{\rm {d}}W_{t}}
ist.
Hierzu wählt man {\displaystyle X_{t}=W_{t}}, also {\displaystyle a_{t}=0,\;b_{t}=1}.
Dann ergibt das Lemma mit {\displaystyle h(t,x)=S_{0}e^{rt-{\frac {1}{2}}\sigma ^{2}t+\sigma x}}:
{\displaystyle {\rm {d}}S_{t}=\left[\left(r-{\frac {\sigma ^{2}}{2}}+{\frac {\sigma ^{2}}{2}}\right)S_{0}e^{rt-{\frac {1}{2}}\sigma ^{2}t+\sigma W_{t}}\right]{\rm {d}}t+\left[\sigma S_{0}e^{rt-{\frac {1}{2}}\sigma ^{2}t+\sigma W_{t}}\right]{\rm {d}}W_{t}=rS_{t}\,{\rm {d}}t+\sigma S_{t}\,{\rm {d}}W_{t}\,.}
{\displaystyle \mathrm {d} Y_{t}=\nabla F(\mathbf {W} _{t})^{\mathsf {T}}\cdot \mathrm {d} \mathbf {W} _{t}+{\frac {1}{2}}\Delta F(\mathbf {W} _{t})\,\mathrm {d} t},
wobei {\displaystyle \nabla F} den Gradienten und \Delta F den Laplace-Operator von F bezeichnen.

Literatur

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 11.10. 2021