Richard Warnung (RW)

Bakkalaureatsthemen für das Sommersemester 2016
Organisation: Richard Warnung (RW)
Kontaktaufnahme über
richard.f.warnung|at|gmail.com
Thema 1: Konvexitätseffekte bei Constant Maturity Swaps
Dieses Projekt wird in Zusammenarbeit mit einem Marktrisiko-Experten einer österreichischen
Großbank durchgeführt (Kontaktaufnahme über RW).
Ein klassischer Zinsswap ist ein Vertrag, bei dem über ein gewisse Laufzeit ein kurzer, sich
regelmäßig anpassender Zinssatz (z.B.: 3 getauscht wird. Ein Constant Maturity Swap (CMS)
hingegen ist ein Swap bei dem ein kurzer Zinssatz gegen einen längeren, sich allerdings
ebenfalls verändernden Zinssatz (z.B. 10 Swapsatz) getauscht wird.
Constant Maturity Swaps können nun mit klassischen Zinsswaps nicht perfekt gehedgt werden,
es entsteht ein (konvexe) Differenz zwischen den Payoffs. Da liquide Marktdaten in der Regel
nur für klassische Zinsswaps vorhanden sind, können diese nun nicht ohne weiteres zur
Bewertung für CMS Swaps verwendet werden, sondern es müssen diese Konvexitätseffekte
berücksichtigt
werden. Diese Effekte können über ein Portfolio von Swaptions repliziert werden.
Das Ziel dieser Arbeit ist ein R-Skript zu entwickeln welches bei gegebenen Marktdaten
(Zinskurven, implizite Black Berücksichtigung der Konvexitätseffekte bewertet.
Referenzen (z.B.):
Hagan, P.S. (2003) Convexity Conundrums: Pricing CMS Swaps, Caps, and Floors.
Wilmott magazine, March, 38
Thema 2: Machine learning - Ein Vergleich von k-means Clustering und k-medoids
Clustering.
Ein Beispiel für „unsupervised learning“ ist der k-means Algorithmus mit dessen Hilfe eine
Gesamtheit in k Gruppen eingeteilt („geclustert“) werden kann. Während die Zentren bei kmeans Durchschnittswerte der jeweiligen Cluster sind, werden bei k-medoids direkt
Repräsentanten der Gruppe gewählt. In dieser Arbeit werden die beiden Konzepte analysiert
und verglichen. Eventuell werden Anwendung in der Finanz dargestellt.
Stichworte: machine learning, unsupervised learning, k-means, k-medoids
! Geplante Projektdauer: ca. 5 Monate !
Literatur:
https://de.wikipedia.org/wiki/K-Means-Algorithmus
https://en.wikipedia.org/wiki/K-means_clustering
The Elements of Statistical Learning, Hastie,Tibshirani and Friedman
(http://statweb.stanford.edu/~tibs/ElemStatLearn/)
Thema 3: Anwendungen der diskreten Fast Fourier Transformation in der
Finanzmathematik
Die Fast Fourier Transformation (FFT) ist eine der grundlegenden numerischen Techniken in der
Finanzmathematik. Mit diesem Werkzeug kann man
- Dichten aus charakteristischen Funktionen berechnen.
- Faltungen zweiter Verteilungen effizient berechnen.
- Europäische Optionen bewerten.
In dieser Arbeit fassen wir zuerst die theoretischen Grundlagen zur Diskreten
Fouriertransformation (DFT) und zur FFT zusammen.
Danach beschreiben wir die genannten Anwendungen und implementieren Beispiel-Sckripts in
R.
Stichworte: Discrete Fourier Transform, FFT
! Geplante Projektdauer: ca. 5 Monate !
Literatur:
Fast Fourier Transform and option pricing, Ales Cerny
Introduction to Fast Fourier Transform in Finance, Ales Cerny
(http://papers.ssrn.com/sol3/papers.cfm?abstract_id=559416)
Weitere Literatur von RW bei Antritt.
Thema 4: Machine learning - Datenanalyse mit Random Forests
Big Data ist in aller Munde. Je mehr Daten wir haben, umso mehr können wir versuchen, aus
ihnen Schlüsse zu ziehen.
Eine intuitive, anschauliche Methode sind Entscheidungsbäume.
Als Weiterentwicklung von Entscheidungsbäumen (Decision Trees) haben sich Random Trees
verbreitet.
In dieser Arbeit wollen wir die Verfahren hinter Random Trees verstehen.
In R sehen wir uns die Implementierung im Package “randomForest” an.
Zur Anwendung der Methoden versuchen wir uns im Lehr-Wettbewerb “Titanic: Machine
Learning from Disaster (http://www.kaggle.com/c/titanic-gettingStarted) auf
http://www.kaggle.com/.
Stichworte: machine learning, decision tree, random forest
! Geplante Projektdauer: ca. 5 Monate !
Literatur:
Wikipedia zum Schnuppern:
http://en.wikipedia.org/wiki/Decision_tree
http://en.wikipedia.org/wiki/Random_forest
Der Wettbewerb, sehr ansprechend gestaltet:
http://www.kaggle.com/c/titanic-gettingStarted
Online gratis Bücher (mit Erlaubnis der Autoren) zum Thema:
http://robjhyndman.com/hyndsight/free-books-on-statistical-learning/
Implementierung in R:
http://cran.r-project.org/web/packages/party/index.html
http://cran.r-project.org/web/packages/randomForest/index.html
Tutorial: http://www.stanford.edu/~stephsus/R-randomforest-guide.pdf