Bakkalaureatsthemen für das Sommersemester 2016 Organisation: Richard Warnung (RW) Kontaktaufnahme über richard.f.warnung|at|gmail.com Thema 1: Konvexitätseffekte bei Constant Maturity Swaps Dieses Projekt wird in Zusammenarbeit mit einem Marktrisiko-Experten einer österreichischen Großbank durchgeführt (Kontaktaufnahme über RW). Ein klassischer Zinsswap ist ein Vertrag, bei dem über ein gewisse Laufzeit ein kurzer, sich regelmäßig anpassender Zinssatz (z.B.: 3 getauscht wird. Ein Constant Maturity Swap (CMS) hingegen ist ein Swap bei dem ein kurzer Zinssatz gegen einen längeren, sich allerdings ebenfalls verändernden Zinssatz (z.B. 10 Swapsatz) getauscht wird. Constant Maturity Swaps können nun mit klassischen Zinsswaps nicht perfekt gehedgt werden, es entsteht ein (konvexe) Differenz zwischen den Payoffs. Da liquide Marktdaten in der Regel nur für klassische Zinsswaps vorhanden sind, können diese nun nicht ohne weiteres zur Bewertung für CMS Swaps verwendet werden, sondern es müssen diese Konvexitätseffekte berücksichtigt werden. Diese Effekte können über ein Portfolio von Swaptions repliziert werden. Das Ziel dieser Arbeit ist ein R-Skript zu entwickeln welches bei gegebenen Marktdaten (Zinskurven, implizite Black Berücksichtigung der Konvexitätseffekte bewertet. Referenzen (z.B.): Hagan, P.S. (2003) Convexity Conundrums: Pricing CMS Swaps, Caps, and Floors. Wilmott magazine, March, 38 Thema 2: Machine learning - Ein Vergleich von k-means Clustering und k-medoids Clustering. Ein Beispiel für „unsupervised learning“ ist der k-means Algorithmus mit dessen Hilfe eine Gesamtheit in k Gruppen eingeteilt („geclustert“) werden kann. Während die Zentren bei kmeans Durchschnittswerte der jeweiligen Cluster sind, werden bei k-medoids direkt Repräsentanten der Gruppe gewählt. In dieser Arbeit werden die beiden Konzepte analysiert und verglichen. Eventuell werden Anwendung in der Finanz dargestellt. Stichworte: machine learning, unsupervised learning, k-means, k-medoids ! Geplante Projektdauer: ca. 5 Monate ! Literatur: https://de.wikipedia.org/wiki/K-Means-Algorithmus https://en.wikipedia.org/wiki/K-means_clustering The Elements of Statistical Learning, Hastie,Tibshirani and Friedman (http://statweb.stanford.edu/~tibs/ElemStatLearn/) Thema 3: Anwendungen der diskreten Fast Fourier Transformation in der Finanzmathematik Die Fast Fourier Transformation (FFT) ist eine der grundlegenden numerischen Techniken in der Finanzmathematik. Mit diesem Werkzeug kann man - Dichten aus charakteristischen Funktionen berechnen. - Faltungen zweiter Verteilungen effizient berechnen. - Europäische Optionen bewerten. In dieser Arbeit fassen wir zuerst die theoretischen Grundlagen zur Diskreten Fouriertransformation (DFT) und zur FFT zusammen. Danach beschreiben wir die genannten Anwendungen und implementieren Beispiel-Sckripts in R. Stichworte: Discrete Fourier Transform, FFT ! Geplante Projektdauer: ca. 5 Monate ! Literatur: Fast Fourier Transform and option pricing, Ales Cerny Introduction to Fast Fourier Transform in Finance, Ales Cerny (http://papers.ssrn.com/sol3/papers.cfm?abstract_id=559416) Weitere Literatur von RW bei Antritt. Thema 4: Machine learning - Datenanalyse mit Random Forests Big Data ist in aller Munde. Je mehr Daten wir haben, umso mehr können wir versuchen, aus ihnen Schlüsse zu ziehen. Eine intuitive, anschauliche Methode sind Entscheidungsbäume. Als Weiterentwicklung von Entscheidungsbäumen (Decision Trees) haben sich Random Trees verbreitet. In dieser Arbeit wollen wir die Verfahren hinter Random Trees verstehen. In R sehen wir uns die Implementierung im Package “randomForest” an. Zur Anwendung der Methoden versuchen wir uns im Lehr-Wettbewerb “Titanic: Machine Learning from Disaster (http://www.kaggle.com/c/titanic-gettingStarted) auf http://www.kaggle.com/. Stichworte: machine learning, decision tree, random forest ! Geplante Projektdauer: ca. 5 Monate ! Literatur: Wikipedia zum Schnuppern: http://en.wikipedia.org/wiki/Decision_tree http://en.wikipedia.org/wiki/Random_forest Der Wettbewerb, sehr ansprechend gestaltet: http://www.kaggle.com/c/titanic-gettingStarted Online gratis Bücher (mit Erlaubnis der Autoren) zum Thema: http://robjhyndman.com/hyndsight/free-books-on-statistical-learning/ Implementierung in R: http://cran.r-project.org/web/packages/party/index.html http://cran.r-project.org/web/packages/randomForest/index.html Tutorial: http://www.stanford.edu/~stephsus/R-randomforest-guide.pdf
© Copyright 2024 ExpyDoc