Investieren im Zeitalter von Big Data: Dem Risiko ins Gesicht

13
IfW-Forum Nr. 24
Investieren im Zeitalter von Big Data:
Dem Risiko ins Gesicht schauen
In jeder Bank, Fondsgesellschaft oder Versicherung sitzen Experten, die mit immer komplexeren Methoden versuchen, Risiken zu erkennen, zu bewerten und am besten zu vermeiden. Dabei ist das Wesen der Gefahr, nämlich der
finanzielle Verlust, hier unstrittig.
Dr. Jochen Schmidt und Jens Stiepel, Spectrum Capital Partners GmbH
[email protected]
Risikomanagement ist nicht nur Teil eines abstrakten Investmentprozesses, nein, es ist die Quintessenz menschlichen Lebens. Jeden Tag muss
der Mensch unzählige Entscheidungen treffen. Kleine unwichtige, aber
auch schwerwiegende Entscheidungen, die in ihrer Gesamtheit den Ablauf
unseres Lebens bestimmen. Ob eine Entscheidung weichenstellend und
schicksalhaft war oder doch ein irrelevantes Detail betraf, wird oft erst in
der Rückschau deutlich. Zwei grundlegende menschliche Charaktertypen
treten dabei in Erscheinung: Der Erste vermeidet Risiken, wann immer es
möglich ist. Für ihn muss der mögliche Gewinn das eingegangene Risiko
wert sein, es sogar überkompensieren. Der zweite Charaktertyp liebt das
Risiko. Sobald er eine Gelegenheit erkennt, die womöglich einen positiven Erwartungswert rechtfertigt, schlägt er zu. Was uns eint, ist aber die
sogenannte ‚Verlustaversion‘ – wir ärgern uns über Verluste mehr, als wir
uns über ebenso große Gewinne freuen. Dieses Verhaltensmuster ist Psychologen seit vielen Jahren bekannt. Damit vertraut ist – vom Kleinanleger bis zum institutionellen Investor – jeder, der einmal eine Aktie mit der
Hoffnung auf eine baldige Erholung der Märkte viel länger im Portfolio gehalten hat, als es rational erklärbar und sinnvoll war. Dass systematisches,
möglichst emotionsfreies Risikomanagement zu langfristig besseren Ergebnissen führt, ist inzwischen allgemein anerkannt.
14
Rationale Risikobewertung ist
eine Herausforderung
Dem verhassten Verlust möchten wir also durch Risikomanagement entgegentreten. Dies bedeutet, dass wir Risiken erkennen, bewerten und,
falls der Schaden als zu hoch und zu wahrscheinlich angesehen wird,
solcherlei Risiken vermeiden möchten. Im Alltag fällt uns allerdings die
Bewertung von Risiken oft sehr schwer. Insbesondere der Umgang mit
der Eintrittswahrscheinlichkeit eines negativen Ereignisses bereitet
uns sehr große Probleme. Das klassische Beispiel ist die weitverbreitete
Flugangst, begründet auf dem sehr unwahrscheinlichen Ereignis eines
Absturzes – wohingegen die meisten von uns ohne Bedenken jeden Tag
am deutlich gefährlicheren Straßenverkehr teilnehmen. Dieses paradoxe
Verhalten hängt auch damit zusammen, dass wir über keinen mathematisch quantifizierbaren Begriff für das Risiko im Allgemeinen verfügen.
Oder kurz: Wo man nicht objektiv messen kann, kann man auch nicht
objektiv entscheiden.
Im Portfoliomanagement hingegen existiert seit vielen Jahren ein quantitativer Risikobegriff. In jeder Bank, Fondsgesellschaft oder Versicherung
sitzen Experten, die mit immer komplexeren Methoden versuchen, Risiken
zu erkennen, zu bewerten und am besten zu vermeiden. Dabei ist das
Wesen der Gefahr, nämlich der finanzielle Verlust, hier unstrittig. Die Eintrittswahrscheinlichkeit und die zu erwartende Höhe des Verlustes sind
die großen Unbekannten. Basierend auf einer schier unüberschaubaren
Menge von Daten existiert eine ebensolche Mannigfaltigkeit von Modellen, wobei Risikobegriffe wie ‚Volatilität‘, ‚Value at Risk‘ oder ‚Expected
Loss‘ inzwischen nicht mehr alleine dem Expertenzirkel vorbehalten sind.
Die Tatsache, dass ständig neue Methoden bekannt werden, zeigt, dass
in der sinnvollen Interpretation der Daten die größte Schwierigkeit liegt.
Eine in Fachkreisen berühmte Anekdote versinnbildlicht die Problematik im Umgang mit Daten: Während des zweiten Weltkriegs gründete
das amerikanische Verteidigungsministerium die sogenannte Statistical
Research Group (SRG). Hier wurden Flugbahnen, Routen, Angriffs- und
Verteidigungsstrategien sowie vieles mehr berechnet. Eines Tages beschäftigte sich das Team mit der Frage, wie man Flugzeuge wohl gegen
gegnerische Kugeln panzern müsste. Der simple Weg – eine umfassende
Panzerung – hat den Nachteil, das Gewicht des Flugzeugs stark zu erhöhen. Zur Unterstützung des SRG übermittelte das Militär Auswertungen von zurückgekehrten Flugzeugen. Die Daten beinhalteten eine Aufschlüsselung von Einschusslöchern pro Quadratmeter je Teilbereich des
Rumpfes. Die Offiziere erwarteten eine optimierte Panzerung, bevorzugt
an den Stellen mit den meisten Einschusslöchern. Die Antwort der SRG
war so verblüffend wie einleuchtend. Es müssen die Stellen gepanzert
werden, die keine Einschusslöcher aufweisen, denn offensichtlich waren
die Flugzeuge, die nicht zurückgekehrt waren, wohl genau dort getroffen
worden. Das Militär setzte die Empfehlung um und die Rate abgeschossener Flugzeuge sank dramatisch. Wie man sieht, reicht das Vorliegen
reiner Daten oftmals nicht aus. Ein guter Risikomanager muss die richtigen Annahmen treffen und vor allem auch zu relevanten Ergebnissen mit
klaren Handlungsanweisungen kommen.
IfW-Forum Nr. 24
Doch welche sind die richtigen Annahmen? Welches Modell beschreibt
die Prozesse, die unsere Portfolien in den Verlust treiben, möglichst korrekt und vorausschauend? Welche Kennzahlen sind letztlich entscheidend für den Erfolg oder Misserfolg einer Anlagestrategie? Diese Fragen
beschäftigen die Akteure an den Finanzmärkten seit vielen Jahrzehnten.
Während die einen vor allem an makroökonomische Theorien glauben
und möglichst allgemeine Wirtschaftsindikatoren beobachten, setzen
die anderen auf technische Analysen der investierten Papiere. Letztlich
können beide Gruppen Gewinne verbuchen, müssen aber auch immer
wieder empfindliche Verluste hinnehmen, wobei jede Verlustphase genutzt wird, die neuen Informationen in ein noch komplexeres Modell
einzuarbeiten – wir lernen also aus unseren Fehlern. Es bleibt aber eine
sehr fundamentale Frage: Ist es letztlich nicht sehr riskant, Risikomanagement auf Modellen aufzubauen, die unserer Erfahrung entspringen,
wir aber gerade Gefahren abwehren wollen, die wir uns unter Umständen
gar nicht vorstellen können? Die Antwort darauf drängt sich geradezu
auf – und im gleichen Atemzug entsteht der Wunsch, Verlustphasen erkennen zu können, ohne bestimmte kausale Zusammenhänge aus dem
Fundus unserer Erfahrungen vorauszusetzen.
Maschinelles Lernen:
Zusammenhänge finden, die
der Mensch nicht sieht
Der Wunsch, zukünftige Ereignisse möglichst erfahrungs- und damit
auch vorurteilsfrei mithilfe der Daten vergangener Vorkommnisse vorherzusagen, ist nicht auf den Finanzsektor beschränkt. Im Gegenteil, in
den letzten Jahrzehnten konnte man einen bemerkenswerten Aufstieg
einer neuen Disziplin der statistischen Wissenschaften beobachten, die
sich genau dieses Ziel gesetzt hat. ‚Predictive Analytics‘ – vorausschauende Analyse – versucht, anhand großer Datenmengen Muster zu erkennen und daraus Schlüsse zu ziehen, die ausschließlich auf empirischen
Zusammenhängen beruhen. Die Einsatzmöglichkeiten sind scheinbar unbegrenzt – angefangen von der Gesichtserkennung auf Flughäfen oder in
sozialen Netzwerken über autonome Fahrzeuge und der automatischen
Steuerung von globalen Liefer- und Fertigungsketten bis hin zur vorausschauenden Verbrechensbekämpfung (‚Pre-Crime‘).
Der Ansatz ist dabei stets gleich: Durch die Auswertung riesiger Datensammlungen und dem ständigen Abgleich mit tatsächlichen Ereignissen versucht man, mithilfe sogenannter ‚Maschineller Lernverfahren‘
wiederkehrende Datenprofile zu erkennen und damit statistisch valide
Modelle der Wirklichkeit zu finden. Der Begriff ‚Maschinelles Lernen‘
betont dabei, dass menschliche Erfahrungen und das subjektive Modellempfinden des Benutzers außen vor bleiben. Stattdessen werden
entweder Beispielspaare von Eingangsparametern und gewünschtem
Ergebnis (z. B. Gesichter und zugehörige Namen) vorgegeben, oder
aber der Algorithmus entscheidet selbst, welche Entscheidungen und
Klassifizierungen anhand der Daten möglich sind. Den Erfolg dieser Methoden können wir alle selbst beim Einkauf auf Internetportalen erfahren – oder in einigen Jahren als Fahrgast selbstfahrender Automobile.
15
IfW-Forum Nr. 24
Abbildung 1 verdeutlicht den fundamentalen Unterschied zur herkömmlichen modellgetriebenen Vorgehensweise. Statt eines vorgefertigten
Modells der Wirklichkeit wird das gewünschte Verhalten vorgegeben – die
Maschine versucht dann, die passende Modellierung selbst vorzunehmen.
Modellgetriebener Ansatz
Daten
Erfahrungen, Wünsche
Datengetriebener Ansatz
Daten
Gewünschtes Verhalten
Entwicklung eines Modells
Maschinelle Entwicklung des Modells
Überprüfung auf gewünschtes Verhalten
Überprüfung der Ergebnisse
Vorverarbeitung der Daten
Umsetzung des validierten
Modells
Produktiver Einsatz
Aktivität Maschine
Produktiver Einsatz
Aktivität Mensch
Abbildung 1: Unterschiede modellgetriebener und datengetriebener Verfahren.
Anwendung maschineller
Lernverfahren im
Portfoliomanagement
Wie kann man nun diesen datengetriebenen Ansatz im Portfoliomanagement einsetzen? Mit dieser Frage haben wir uns in einer Studie beschäftigt. Ziel war es dabei, die rein auf menschlicher Meinung und Erfahrung
basierenden Modelle zu ignorieren und an deren Stelle Prozesse zu setzen, die durch algorithmische Verfahren ermittelt wurden. Mit anderen
Worten: Wir geben das gewünschte Anlageverhalten vor, der Computer
generiert ein Modell, welches dieses Verhalten reproduziert. Die von uns
eingesetzte Methodik lernt also autonom mithilfe von Beispieldaten. Diese sind in unserem Fall Indexstände von Märkten und korrespondierende
Anlageentscheidungen. Der besondere Charme besteht dabei darin, dass
Rohdaten und gewünschtes Ergebnis nicht in einem bestimmten funktionalen Verhältnis stehen müssen – im Gegenteil, es ist ja gerade das
Ziel, ein bis dato unbekanntes, passendes Modell zu finden. Selbst die
Relevanz der zur Verfügung gestellten Daten für die Entscheidung wird
von der Maschine infrage gestellt. Sollten irrelevante Daten enthalten
sein, werden diese automatisch ignoriert.
Auf diese Weise konnten wir eine vorgegebene trendbasierte Investmentstrategie zu mehr als 98 % reproduzieren, d. h. das maschinelle
Lernverfahren war imstande, die Entscheidungen des Modells fast vollständig nachzuempfinden, ohne die darunterliegenden erfahrungsbasierten Annahmen zu kennen (siehe Abbildung 2). Interessanterweise
konnte dabei gezeigt werden, dass selbst ohne externe Beeinflussung
16
IfW-Forum Nr. 24
bevorzugt dieselben Datenmerkmale betrachtet wurden, die auch dem
Trendmodell zugrunde lagen.
Ziel ist es aber natürlich nicht, nur ein vorliegendes Modell nachzuahmen. Vielmehr möchten wir modellfrei arbeiten. Im zweiten Schritt legten wir daher für ein global diversifiziertes Index-basiertes Portfolio Anlageentscheidungen a posteriori fest – wir kannten also die zukünftige
Entwicklung und konnten optimal handeln. Anhand dieser Vorgaben sollte der Algorithmus wiederum ein Anlagemodell entwickeln, wobei er im
Gegensatz zu uns stets nur die Vergangenheit kannte. Auch hier konnten
wir über 90 % der Anlageentscheidungen nachahmen – eine erstaunliche
Quote. Da die Abhängigkeit von den Parametern des maschinellen Lernverfahrens sowie den verwendeten Eingangsdaten noch recht hoch ist,
stehen allerdings weitere Untersuchungen bis zur Anwendungsreife aus.
Abbildung 2: Vergleich der Ergebnisse einer proprietären Investmentstrategie mit der daraus maschinell erlernten Strategie.
Die blauen Punkte stellen Abweichungen im Investmentverhalten dar, wobei wöchentlich eine Entscheidung getroffen wurde.
Mensch und Maschine
ergänzen sich
Die Verwendung maschineller Lernverfahren kann also helfen, unbekannte Modelle zu finden und damit auch unverstandene Zusammenhänge aufzudecken. Sie verlangt allerdings eine sorgfältige Vorverarbeitung
der Rohdaten und eine gewissenhafte Auswahl der eingesetzten Methodik, die ein tiefes Verständnis der Lernprozesse voraussetzt. Da das Potenzial gewaltig erscheint, erwarten wir einen signifikanten Anstieg maschinell gestützter Investmentstrategien in den nächsten Jahren, trotz
der hohen fachlichen Voraussetzungen.
Maschinelles Lernen bietet somit die Möglichkeit, jenseits unseres
Vorwissens, unserer Meinung und unserer Emotionen rationales und
effektives Risikomanagement zu betreiben. Der Computer sucht auf
unbestechliche Art und Weise Wirkungszusammenhänge in unüberschaubaren Datenmengen und hilft somit, unser Anlageverhalten zu optimieren. Grundlage dafür sind die vorliegenden Daten – den berühmten
‚schwarzen Schwan‘ kann auch diese Methode schwerlich finden. Daher
wird, ergänzend zu modernsten datengetriebenen Verfahren, stets ein
erfahrener Risikomanager notwendig sein. Das Risikomanagement mag
Methoden der Gesichtserkennung verwenden – gesichtslos wird es dadurch aber nicht.
Dr. Jochen Schmidt leitet die quantitative Analyse der
Spectrum Capital Partners GmbH, Jens Stiepel ist deren
Geschäftsführer. Der BaFin-lizensierte Vermögensverwalter hat sich auf systematisches, quantitativ gesteuertes
Portfolio- und Risikomanagement spezialisiert und unterstützt insbesondere vermögende Privatanleger, Family
Offices, Sparkassen sowie Banken und Versicherungen.