• Keine Ergebnisse gefunden

In other words, the shatter coefficient is the maximal number of different subsets of L points that can be picked out by sets fromA. Obviously, s(A,{z1, . . . ,zL})and S(A,L)are smaller or equal to 2L. In particulars(A,{z1, . . . ,zL}) <2L means that{z1, . . . ,zL}contains a subset such that there is no set inA containing exactly that subset of{z1, . . . ,zL}.

One important observation is that inR2three points can be shattered by half-spaces which allows us later on to apply Theorem 9.4 of Györfi et al. [26]. Moreover, we see thatS(A,k) <2k impliesS(A,L) <2L for allL > k. The last time whenS(A,k) = 2k gives rise to the definition of the Vapnik-Chervonenkis dimension named after Vladimir N. Vapnik and Alexey J. Chervonenkis:

Definition A.3.5. LetAbe a nonempty class of subsets ofRd. TheVC dimension(or Vapnik-Chervonenkis dimension)VAofAis defined by

VA =sup{LN:S(A,L) =2L}.

Hence, the VC dimensionVAis the largest integer Lsuch that there exists a set ofLpoints inRdwhich can be shattered byA.

As last tool we need the definition of subgraphs of a class of functions:

Definition A.3.6. LetGbe class of functions mapping fromRdtoR. The set of all subgraphs ofGdenoted byG+ is defined by

G+= nn

(z,t)∈Rd×R:t≤g(z) o

:g∈ G o

.

Theorem 9.4 of Györfi et al. [26] relates the packing number of a class of functions with the VC dimension of all of its subgraphs:

Theorem A.3.7. LetG be a class of functions g:Rd [0,B], B >0with VG+ 2, let p 1,νa probability measure onRdand let0<ε< B4. Then

M(ε,G,|| · ||Lp(ν))3 µ2eBp

εp ln µ3eBp

εp

¶¶V

G+

.

IfGis a linear vector space of dimensionK, the set{α·t+g(z):g ∈ G,α∈R}is a linear vector space as well and its dimension isK+1. We introduce this further set since the inclusion

G+ = nn

(z,t)∈Rd×R;t≤g(z) o

:g∈ G o

nn

(z,t)∈Rd×R:α·t+g(z)≥0 o

;g∈ G,α∈R o

. holds. Theorem 9.5 of Györfi et al. [26] closes the final gap in bounding covering numbers:

Theorem A.3.8. LetGbe an r-dimensional vector space of real functions defined onRdand A={{z:g(z)≥0}:g∈ G}.

Then its VC dimension satisfies

VA≤r.

A.4 Rate of convergence for least-squares estimates

To bound the error termsT1,in,LandT3,d,in,L we used results of Györfi et al [26] concerning the rate of conver-gence for least-squares estimates in rather general models.

130 A.4. Rate of convergence for least-squares estimates

The situation under consideration is as follows: We observe Lindependent realizations of the random variables(X,Y)denoted by(Xλ,Yλ)λ=1,...,L. FL is assumed to be a vector space of functions which may even depend on the observations(X1, . . . ,XL). Now, we definemeLthe linear least-squares estimate

e

mL(·) =arginf

ψ∈FL

1 L

L λ=1

|ψ(Xλ)−Yλ|2.

Furthermore we introduce the notation

||ψ||2L = 1 L

L λ=1

|ψ(Xλ)|2. Then Theorem 11.1 of Györfi et al. [26] states:

Theorem A.4.1. Assume

σ2= sup

x∈Rd

Var[Y|X=x]<

and let FL be a vector space of functions depending on the observations(X1, . . . ,XL)which has vector space di-mension KL = KL(X1, . . . ,XL). Furthermore, we denote m the true regression function of the model. Then it holds:

E h

||meL−m||2L¯

¯X1, . . . ,XL i

≤σ2KL L +min

ψ∈FL

||ψ−m||2L.

In our convergence proof, as Lemor [33] (see Theorem A.8 in his appendix), we apply a corollary of the above theorem:

Corollary A.4.2. If in the situation of Theorem A.4.1 the function space FLis independent of(X1, . . . ,XL)it holds:

E h

||meL−m||2L i

≤σ2E[KL] L +min

ψ∈FL

E[|ψ(X)−m(X)|2].

Finally, to obtain the bound for the error with respect to the distribution of the discretized forward Markov process we apply Theorem 11.2 of Györfi et al. [26], where|| · ||denotes theL2(F)norm:

Theorem A.4.3. LetGbe a class of functions g:RdRbounded in absolute value by B and letε>0. Then P(∃g∈ G :||g|| −2||g||L >ε)≤3E

· N2¡

2

24ε,G,X12L¢¸ exp

½

2 288B2

¾

where X12L = (X1, . . . ,XL,XL+1, . . . ,X2L)and XL+λ=1, . . . ,L is an i.i.d. copy of the likewise i.i.d. random variables Xλ=1, . . . ,L.

Zusammenfassung auf Deutsch

Wir beschäftigen uns in der vorliegenden Arbeit mit stochastischen Rückwärts-Differentialgleichungen, kurz BSDEs genannt. Genauer gesagt, widmen wir uns der numerischen Lösung entkoppelter stochas-tischer Vorwärts-Rückwärts-Differentialgleichungen (FBSDEs) der Form

dSt = b(t,St)dt+σ(t,St)dWt, S0=s0, dYt = −f(t,St,Yt,Zt)dt+ZtdWt, YT =Φ(S), wobeiWBrownsche Bewegung ist.

Der Ursprung solcher stochastischer Gleichungen mit gegebener Endbedingung liegt in den frühen 1970er Jahren in der Arbeit von Bismut [7], die optimale Kontrollprobleme betrachtet. Allerdings gelang es erst Pardoux und Peng [41] im Jahre 1990 ein allgemeines Existenz- und Eindeutigkeitsresultat zu be-weisen, das auch nichtlineare BSDEs umfasst. Anschließend begann eine breitgefächerte Entwicklung in der Theorie dieser Gleichungen, die hauptsächlich von den zahlreichen Anwendungen in der Finanz-mathematik ausging. Dies spiegelt sich in den zahlreichen Publikationen wider, beispielhaft seien hier die Bücher von El Karoui [17], Ma und Yong [37], Yong und Zhou [44] und der Übersichtsartikel von El Karoui, Peng und Quenez [18] genannt.

Im Vergleich dazu konnte die Numerik von BSDEs zunächst nicht mit der Entwicklungsgeschwindigkeit Schritt halten und gewann erst in den letzten Jahren an Fahrt. Der Ausgangspunkt für numerische Appro-ximationen für FBSDEs war das theoretischeVier Schritt Verfahren(engl.Four Step Scheme) von Ma, Protter und Yong [35], aus dem Douglas, Ma und Protter [16] 1996 einen Algorithmus entwickelten, der die Lö-sung einer parabolischen partiellen Differentialgleichung approximiert, die mit der BSDE in Verbindung steht.

Ein vollständig andersartiger Ansatz wurde wenig später von Bally [1] und Chevance [12] verfolgt. Beide lösen die Gleichungen direkt mit stochastischen Methoden und benutzen hierbei randomisierte Zeitgitter unter starken Regularitätsanforderungen an die Koeffizientenfunktionen der Gleichungen. Leider sind ihre Algorithmen kaum implementierbar. Im Jahr 2002 schlugen Ma et al. [36] einen ähnlichen Ansatz vor, ersetzten hierbei jedoch die Brownsche Bewegung in der Gleichung durch einen binären Random Walk.

Die Initialzündung für die Forschung im Bereich der Numerik von BSDEs gaben schließlich die Arbeiten von Zhang [45, 46], die neue Ergebnisse bezüglich der Regularität des zweiten Teil der LösungZlieferten ohne hierbei Ableitungen der Koeffizientenfunktionen der BSDE zu benutzen. Dies ermöglichte Kon-vergenzbeweise für numerische Verfahren unter weit schwächeren Voraussetzungen als zuvor und einer deterministischen Zeitpartition.

Basierend auf diesen Hilfsmitteln wurden in den letzten Jahren nun vielerlei Algorithmen entwickelt, die nach verschiedenen Kriterien unterschieden werden können: Das erste Merkmal ist der zeitliche Ablauf der Diskretisierung. Bei den Algorithmen von Bouchard und Touzi [9], Gobet et al. [21, 22] und Zhang [45, 46] verläuft diese rückwärts und ahmt in gewissem Sinne das Euler-Maruyama Verfahren für stochastische Vorwärts-Differentialgleichungen nach. Aus diesem Grunde sprechen wir hierbei von Ver-fahren vom Euler-Typ, deren Charakteristik eine Verschachtelung bedingter Erwartungswerte rückwärts in der Zeit ist.

131

132 Zusammenfassung

Im letzten Jahr entwickelten Zhao, Wang und Peng [47] ein θ-Verfahren für BSDEs, welches dem θ-Verfahren für Vorwärts-Differentialgleichungen nachempfunden ist und eine bessere Fehlerabschätzung fürZliefert. Allerdings gelingt dies wieder nur unter starken Voraussetzungen.

Im Gegensatz hierzu stehen die Algorithmen von Bender und Denk [2] und Labart [31], Kapitel III, die den zeitlichen Ablauf nicht umkehren und dadurch die Verschachtelung bedingter Erwartungswerte ver-meiden. Allerdings nehmen sie Verschachtelungen von Picard-Iterationen, so wie sie im Existenzbeweis von Pardoux und Peng [41] auftreten, in Kauf. Wir sprechen deswegen von Verfahren vom Picard-Typ.

Eine weitere Einteilung kann nach der Art des Schätzers getroffen werden, der bei der Approximation bedingter Erwartungswerte eingesetzt wird. Während Zhao et al. [47] hierfür eine Gauss-Hermite-Quadratur verwenden, ist die populärste Wahl hierbei ein Monte Carlo Verfahren. Dabei benutzen Bouchard und Touzi [9] einen Schätzer basierend auf den Malliavin-Kalkül, Labart [31] setzt nichtparame-trische Regression ein. Die meisten Verfahren verwenden jedoch einen Kleinst-Quadrate Monte Carlo Ansatz, siehe hierzu die Arbeiten von Bender und Denk [2], Bender und Zhang [5] und Gobet et al.

[21, 22].

Das Ergebnis dieser Monte Carlo Algorithmen sind stochastische Prozesse in diskreter Zeit oder, wenn man es an einem speziellen Zeitpunkt betrachtet, Zufallsvariablen. Startet man nun ein implementiertes Programm mit verschiedenen Startwerten für den Zufallszahlengenerator, so ist klar, dass wir unter-schiedliche Ausprägungen dieser Zufallsvariablen erhalten.

Betrachtet man nun die Anwendungen von FBSDEs in der Finanzmathematik und speziell hierin die Be-wertung von Optionen, so stelltS typischerweise den Preisprozess des Basiswerts dar,Y liefert den Op-tionspreis,Φist die Auszahlungsfunktion undZbeschreibt in einfachen Fällen eine Lineartransformation des Hedging-Portfolios. Insbesondere eine sehr hohe empirische Varianz entsteht nun bei numerischen Verfahren für Situationen, wenn Optionen aus dem Geld oder allgemeiner Optionen untersucht werden, die ein sogenanntes seltenes Ereignis in ihrer Auszahlungsfunktion beinhalten.

Aus der Sichtweise eines Anwenders in einem Finanzunternehmen, der an der Bestimmung eines Op-tionspreises zum Anfangszeitpunkt - also anY0- interessiert ist, sind diese Schwankungen höchst uner-wünscht und er möchte eine Reduktion dieses Effekts. Vereinfacht gesprochen liefert ein solcher Monte Carlo Algorithmus nun einen Schätzer der Form

Yb0= 1 L

L λ=1

θλ,

wobei wir der Einfachheit halber zusätzlich annehmen, dass die Zufallsvariablenθλ,λ =1, . . . ,L unab-hängig und identisch verteilt sind. In diesem Fall ist dann

Var[Yb0] = Var[θ1] L ,

so dass eine Möglichkeit, einen Schätzer mit niedrigerer Varianz zu erhalten, eine Erhöhung der Anzahl der SimulationenL ist. Dies jedoch bedeutet eine Erhöhung der Laufzeit des Programmes und ist für die Praxis nicht sonderlich attraktiv. Stattdessen führt eine Reduktion des Termes im Zähler ebenfalls zu stabileren Schätzern und ist in etlichen Fällen in kürzerer Laufzeit zu erreichen als eine höhere Zahl von Simulationen.

Diese Beobachtung ist nun die zugrundeliegende Idee von Varianzreduktionsmethoden, die in Spezialfäl-len auch schon in der Numerik von BSDEs angewandt wurden, siehe hierzu die Publikationen von Bender und Denk [2] und Labart [31]. Beide Verfahren verwenden eine sogenannte Kontrollvariatenmethode, um die Schätzer zu stabilisieren.

Wir möchten nun zur Varianzreduktion einen Importance Sampling Ansatz für BSDEs anwenden, der dem klassischen linearen Optionsbewertungsproblem entlehnt ist. In diesem Zusammenhang erweist sich diese Methode hoch effizient für pfadabhängige Optionen, siehe hierzu zum Beispiel Glasserman [20]. Um Optionspreise bestimmen zu können, werden oft Pfade der Basiswerte simuliert und ein Mittel-wert über die entsprechenden diskontierten AuszahlungsMittel-werte unter einem äquivalenten Martingalmaß

Zusammenfassung 133

Qberechnet. Das heißt es wird versucht

EQ h

Φ(S)B−1T i

zu approximieren, wobeiEQ den Erwartungswert unter dem MaßQund Bt den Preis der risikolosen Anlage bezeichnet. Beinhaltet die untersuchte Option nun ein Merkmal, das mit seltenen Ereignissen ver-bunden ist, so liefert solch ein Vorgehen oft nur wenige Auszahlungen, die ungleich 0 sind und folglich ist die empirische Varianz des Monte Carlo Schätzers hoch. Die grundlegende Idee des Importance Sam-plings ist nun mehr Pfade des Basiswertes in “interessante” oder “wichtige” Bereiche wie zum Beispiel im Geld zu lenken. Dadurch wird die Anzahl der Auszahlungen mit Wert 0 verringert und man erhält somit stabilere Schätzer.

Mathematisch gesprochen ist diese Umlenkung oder Beeinflussung der Drift nichts anderes als ein Maß-wechsel. Multipliziert man folglich das Produkt aus der AuszahlungsfunktionΦ(Sh), wobeiShder Preis des Basiswertes unter dem neuen MaßQh ist, und dem Preis der risikolosen Anlage Bth unterQh mit dem stochastischen ExponentialΨ = dQdQh erhält man einen Monte Carlo Schätzer für den anfänglichen Optionspreis, der eine Zufallsvariable mit gleichem Erwartungswert

EQh h

Φ(Sh)(BhT)−1 i

=EQ h

ΨΦ(Sh)(BhT)−1 i

approximiert und gleichzeitig kann man hoffen, dass deren Varianz VarQh

·

Φ(Sh)(BhT)−1

¸

=EQ

· Ψ

µ

Φ(Sh)(BhT)−1

2¸

−EQ

·

ΨΦ(Sh)(BhT)−1

¸2

niedriger ist als die alte VarQ

·

Φ(S)(BT)−1

¸

=EQ

·µ

Φ(S)(BT)−1

2¸

−EQ

·

Φ(S)(BT)−1

¸2 .

Dies wiederum ist die delikate Angelegenheit dieser Art von Varianzreduktion: Wählt man das falsche Maß, so führt dies zu einer erhöhten Varianz und deshalb muss die veränderte Drift sehr sorgfältig ausgewählt werden. Die ausgedehnte vorhandene Literatur im Kontext der Optionsbewertung in ver-schiedenen Modellen spiegelt diese Problematik wider. Sie kann grob in zwei Stränge eingeteilt werden:

Auf der einen Seite wird die optimale Auswahl eines neuen Maßes in stetiger Zeit untersucht, siehe zum Beispiel die Artikel von Newton [39], Milstein und Schoenmakers [38] oder Guasoni und Robertson [25], die versuchen allgemeine Regeln für Optimalität herzuleiten. Zum anderen versuchen verschiedene Au-toren spezielle Methoden für ganz bestimmte Situationen in diskreter Zeit zu finden. Wir verweisen hierfür zum Beispiel auf Boyle et al. [10], Glasserman et al. [19] oder Ökten et al. [40].

Die vorliegende Arbeit hat nun zwei wesentliche Ziele. Das erste beinhaltet die Einführung von Im-portance Sampling im Kontext von stochastischen Vorwärts-Rückwärts-Differentialgleichungen. Dies geschieht innerhalb des Vorwärtsverfahrens von Bender und Denk [2], allerdings ist anzunehmen, dass das prinzipielle Vorgehen nicht auf dieses Verfahren beschränkt ist und auf ähnliche Art und Weise für jeden anderen Kleinst-Quadrate Monte Carlo Algorithmus für BSDEs benutzt werden kann. Darüberhin-aus führen wir einen L2-Konvergenzsatz für einen leicht abgewandelten Algorithmus vom Picard-Typ ein, der den Artikel von Bender und Denk [2] vervollständigt.

Aufgebaut ist die Arbeit wie folgt:Kapitel 1führt das Umfeld, die Annahmen und Definitionen ein, die im Folgenden immer wieder benötigt werden. Außerdem wiederholen wir relativ knapp die Ergebnisse von Bender und Denk [2], die im weiteren Verlauf der Arbeit verallgemeinert werden und kommentieren die eher unfangreiche Notation, die benutzt wird.

Daszweite Kapitelwidmet sich der Einführung von Importance Sampling für BSDEs, siehe auch Bender und Moseler [4]. Genauer gesagt führen wir über einen Maßwechsel eine ganze Familie von Vorwärtsver-fahren zur Approximation des Anfangswertes (Y0,Z0) der Lösung der BSDE ein, die das Verfahren von

134 Zusammenfassung

Bender und Denk [2] beinhaltet. Das heißt für einen passenden stochastischen Prozessh und eine Zeit-partitionπ: 0 = t0 < . . . < tN = T definieren wir stochastische Prozesse(Sh,πh,π,j,Yh,n,π,Zh,n,π)in diskreter Zeit durch:

Sh,πti+1 = Sh,πti +

³

b(t,Sh,πti ) +σ(t,Sh,πti )hti

´

(ti+1−ti) +σ(t,Sh,πti )(Wti+1−Wti), Ψh,π,jti = exp

½

i−1

k=j

h>tk(Wtk+1−Wtk)1 2

i−1

k=j

|htk|2(tk+1−tk)

¾

und auf rekursive Weise Yth,n,πi = E

·

Ψh,π,itN φ(Xth,πN ) +

N−1

j=i

Ψh,π,itj f(tj,Sh,πtj ,Yth,n−1,πj ,Zth,n−1,πj )(tj+1−tj)

¯¯

¯¯Fti

¸ , Zth,n,πi = E

·µWti+1−Wti ti+1−ti +hti

¶µ

Ψh,π,itN φ(Xh,πtN )

+

N−1

j=i+1

Ψh,π,it

j f(tj,Sh,πt

j ,Yth,n−1,π

j ,Zth,n−1,π

j )(tj+1−tj)

¶¯¯

¯¯Fti

¸ ,

beginnend mit(Yh,0,π,Zh,0,π) = (0, 0), wobeiΦ(S) = φ(XT)für einen Markovprozess(Xt,Ft)gilt, der mit der Vorwärtsdiffusion zusammenhängt undXh,πtN eine Approximation fürXTist.

Eine einfache aber nichtsdestotrotz ziemlich elegante Beobachtung liefert dann sofort eine Fehlerabschät-zung für diese Art von Approximation, siehe Korollar 2.1.2, S. 10. Das weitere Vorgehen besteht nun darin, die auftretenden bedingten Erwartungswerte durch Kleinst-Quadrate Monte Carlo Schätzer zu er-setzen. Im Vergleich zu Bender und Denk [2] und Gobet et al. [22] enstehen hierbei zusätzliche technische Schwierigkeiten, da die zeitdiskreten Approximationen für(Y,Z)unter dem ursprünglichen Maß nicht mehr quadratisch-integrierbar zu sein brauchen. Bezieht man die Eigenschaften des Dichteprozesses des MaßwechselsΨh,π,0sorgfältig mit ein so gelingt es diese Probleme zu beseitigen. Dadurch kann man eine geeignete Regressionsbasis definieren und letztendlich zeigen wir die Konvergenz des finalen Schätzers gegen die Lösung der gegebenen Gleichungen und bekommen gleichzeitig einen vollständig implemen-tierbaren Algorithmus.

Der soeben erwähnte Konvergenzbeweis beinhaltet dabei zwei Schritte. Zunächst beweisen wir in Satz 2.2.2, S. 16, eineL2-Abschätzung für den Fehler, der ensteht, wenn man bedingte Erwartungswerte durch Projektionen auf endlich-dimensionale Unterräume ersetzt. Danach zeigen wir in Satz 2.2.5, S. 21, fast sichere Konvergenz unter dem ursprünglichen Maß für den endgültigen Schätzer gegen den Schätzer, der aus der nur theoretisch realisierbaren Projektion stammt.

Somit haben wir insgesamt (nur) Konvergenz in Wahrscheinlichkeit unseres Schätzers gegen die Lösung der BSDE gezeigt, obwohl in zwei von drei Schritten Schranken für den L2-Fehler hergeleitet werden konnten. Der Grund für diesen Mangel liegt in der Tatsache, dass die finalen Schätzer nicht unabhängig sind und wir über diese mitteln um Schätzer der nächsten Picard-Stufe zu bekommen.

Dieser Nachteil wird inKapitel 3durch Konzepte aus der nichtparametrischen Statistik ausgemerzt. Wir betrachten hierbei eine Variante des Verfahrens vom Picard-Typ von Bender und Denk [2] mit leicht stär-keren Annahmen. Wir trunkieren in der zeitdiskreten Version zusätzlich die Brownschen Inkremente und analysieren zunächst diesen zusätzlichen Fehler. Es stellt sich in Satz 3.1.7, S. 29, heraus, dass dieser schnell sehr klein wird, wenn man die Trunkierung immer mehr abschwächt. Diese Neuformulierung des Verfahrens liefert zudem beschränkte Approximationen für(Y,Z)und öffnet damit die Tür für starke statistische Werkzeuge.

Diese werden benutzt um Terme abzuschätzen, die erscheinen, wenn man den durchschnittlichenL2 -Fehler bezüglich Monte Carlo Simulationen betrachtet, die wiederum im Rahmen einer Kleinst-Quadra-te-Methode benutzt werden um bedingte Erwartungswerte zu diskretisieren. Das Hauptwerkzeug hier-zu ist die Einführung sogenannter “Ghost samples”, das heißt einer weiteren Menge rein gedachter

Zusammenfassung 135

Monte Carlo Simulationen, die in einem passenden Sinn unabhängig von den tatsächlich benutzten sind.

Mit Hilfe dieser zusätzlichen Zufallsvariablen gelingt es zu einem Durchschnitt über unabhängige Vari-ablen zurückzukehren und anschließend Hoeffdings Ungleichung für den Mittelwert beschränkter, un-abhängiger Zufallsvariablen anzuwenden, siehe hierzu den Abschnitt 3.3.

Langwierige Abschätzungen führen schließlich zum Hauptresultat, nämlich Satz 3.4.1, S. 71, der eine obere Schranke für denL2-Fehler liefert und von den vom Anwender zu wählenden Inputvariablen ab-hängt. Genau gesagt bedeutet dies, dass wir eine Abschätzung bekommen, die die Anzahl der Zeitschrit-te, die Dimension der Basis, die den Unterraum für die Approximation bedingter Unterräume aufspannt, und die Anzahl der verwendeten Monte Carlo Simulationen beinhaltet. Auf diese Weise erhalten wir eine Regel, wie wir diese Größen simultan wählen können und gleichzeitig sicherstellen können, dass der Algorithmus konvergiert.

Abschließend vergleichen wir unsere Ergebnisse mit denjenigen von Gobet et al. [22]. Hierbei ergibt sich, dass bei einer Basis aus Indikatorfunktionen die beiden Algorithmen in höher-dimensionalen Situationen die selbe Effizienz aufweisen, während das Verfahren vom Euler-Typ für den Fall, dassΦ(S) = Φ(ST) undSein-dimensional ist, leicht vorteilhaft ist.

Zahlreiche numerische Beispiele werden inKapitel 4betrachtet. Wir untersuchen hierbei verschiedene Aspekte der benutzten Varianzreduktionstechnik und der Numerik von BSDEs im Allgemeinen. Zunächst skizzieren wir hierzu unsere tatsächliche Implementierung als Pseudo-MATLAB-Code, testen einige Va-rianzreduktionsmethoden aus dem Bereich der Optionspreisbewertung und setzen diese auch für nicht-lineare BSDEs ein.

Ein erster Schritt in Richtung eines allgemeineren Ansatzes zur Auswahl eines neuen Maßes, welches Va-rianzreduktion induziert, wird im nächsten Abschnitt gemacht. Wir greifen hierzu eine Methode aus der Ökonometrie auf und “übersetzen” diese auf die Situation von BSDEs. Unser Hauptinteresse hierbei liegt in den Fragen: Wie soll das Programm implementiert werden, das das neue Maß auswählt und erreichen wir bessere Ergebnisse als in den Fällen, in denen wir einfach Techniken aus der Optionspreisbewertung übernommen haben? Unsere Resultate für dieses sogenannte “Efficient importance sampling” (EIS) sind zwiespältig. Die Methode erweist sich als hochgradig effizient für spezielle Beispiele, allerdings bleiben mehrere theoretische als auch numerische Probleme, die die Allgemeinheit der Fälle, bei denen diese Art von Varianzreduktion benutzt werden kann, doch deutlich einschränkt.

Zum Schluß widmen wir uns noch einem potentiellen Ersatz für Kleinst-Quadrate Monte Carlo Schät-zer. Nach einer kurzen Wiederholung der Theorie versuchen wir den einfachsten nichtparametrischen Schätzer zur Approximation bedingter Erwartungswerte im Rahmen des Verfahrens von Bender und Denk [2] zu verwenden. Es ergeben sich hierbei sowohl theoretische als auch numerische Probleme, die die direkte Einsatzfähigkeit des Nadaraya-Watson-Schätzers erschweren beziehungsweise verhindern.

Der Anhang am Ende der vorliegenden Arbeit sammelt schließlich wichtige Ungleichungen sowie eine Zusammenfassung der Werkzeuge und Ergebnisse aus der nichtparametrischen Statistik, die im Laufe des technischen Teiles von Kapitel 3 benutzt werden.

Bibliography

[1] Bally, V.: Approximation scheme for solutions of BSDE. In El Karoui, N., Mazliak, L. (Eds.)Backward Stochastic Differential Equations, 177-191, Longman, Harlow (1997).

[2] Bender, C., Denk, R.: A forward scheme for backward SDEs.Stochastic Processes and their Applications 117No. 12 (2007), 1793-1812.

[3] Bender, C., Kohlmann, M.: Optimal superhedging under non-convex constraints - a BSDE ap-proach.International Journal of Theoretical and Applied Finance11No. 4 (2008), 363-380.

[4] Bender, C., Moseler, T.: Importance sampling for backward SDEs.Stochastic Analysis and Applications 28No. 2 (2010), 226-253.

[5] Bender, C., Zhang, J.: Time discretization and Markovian iteration for coupled FBSDEs.The Annals of Applied Probability18No. 1 (2008), 143-177.

[6] Bergman, Y. Z.: Option pricing with differential interest rates.The Review of Financial Studies8No.

2 (1995), 475-500.

[7] Bismut, J.-M.: Conjugate convex functions in optimal stochastic control.Journal of Mathematical Analysis and Applications44(1973), 384-404.

[8] Broadie, M., Cvitanic, J., Soner, H. Mete: Optimal replication of contingent claims under portfolio constraints.The Review of Financial Studies11No. 1 (1998), 59-79.

[9] Bouchard, B., Touzi, N.: Discrete-time approximation and Monte Carlo simulation of backward stochastic differential equations.Stochastic Processes and their Applications111No. 2 (2004), 175-206.

[10] Boyle, P., Broadie, M., Glasserman, P.: Monte Carlo methods for security pricing.Journal of Economic Dynamics and Control21No. 8-9 (1997), 1267-1321.

[11] Carrière, J. F.: Valuation of the early-exercise price for options using simulations and nonparametric regression.Insurance: Mathematics & Economics19No. 1 (1996), 19-30.

[12] Chevance, D.: Numerical methods for backward stochastic differential equations. In: Rogers, L. C.

G., Talay, D. (eds.),Numerical Methods in Finance, 232-244, Cambridge University Press, Cambridge (1997).

[13] Chow, Y. S., Teicher, H.: Probability theory - Independence, interchangeability, martingales, 2nd-edition,

[13] Chow, Y. S., Teicher, H.: Probability theory - Independence, interchangeability, martingales, 2nd-edition,