13 IfW-Forum Nr. 24 Investieren im Zeitalter von Big Data: Dem Risiko ins Gesicht schauen In jeder Bank, Fondsgesellschaft oder Versicherung sitzen Experten, die mit immer komplexeren Methoden versuchen, Risiken zu erkennen, zu bewerten und am besten zu vermeiden. Dabei ist das Wesen der Gefahr, nämlich der finanzielle Verlust, hier unstrittig. Dr. Jochen Schmidt und Jens Stiepel, Spectrum Capital Partners GmbH [email protected] Risikomanagement ist nicht nur Teil eines abstrakten Investmentprozesses, nein, es ist die Quintessenz menschlichen Lebens. Jeden Tag muss der Mensch unzählige Entscheidungen treffen. Kleine unwichtige, aber auch schwerwiegende Entscheidungen, die in ihrer Gesamtheit den Ablauf unseres Lebens bestimmen. Ob eine Entscheidung weichenstellend und schicksalhaft war oder doch ein irrelevantes Detail betraf, wird oft erst in der Rückschau deutlich. Zwei grundlegende menschliche Charaktertypen treten dabei in Erscheinung: Der Erste vermeidet Risiken, wann immer es möglich ist. Für ihn muss der mögliche Gewinn das eingegangene Risiko wert sein, es sogar überkompensieren. Der zweite Charaktertyp liebt das Risiko. Sobald er eine Gelegenheit erkennt, die womöglich einen positiven Erwartungswert rechtfertigt, schlägt er zu. Was uns eint, ist aber die sogenannte ‚Verlustaversion‘ – wir ärgern uns über Verluste mehr, als wir uns über ebenso große Gewinne freuen. Dieses Verhaltensmuster ist Psychologen seit vielen Jahren bekannt. Damit vertraut ist – vom Kleinanleger bis zum institutionellen Investor – jeder, der einmal eine Aktie mit der Hoffnung auf eine baldige Erholung der Märkte viel länger im Portfolio gehalten hat, als es rational erklärbar und sinnvoll war. Dass systematisches, möglichst emotionsfreies Risikomanagement zu langfristig besseren Ergebnissen führt, ist inzwischen allgemein anerkannt. 14 Rationale Risikobewertung ist eine Herausforderung Dem verhassten Verlust möchten wir also durch Risikomanagement entgegentreten. Dies bedeutet, dass wir Risiken erkennen, bewerten und, falls der Schaden als zu hoch und zu wahrscheinlich angesehen wird, solcherlei Risiken vermeiden möchten. Im Alltag fällt uns allerdings die Bewertung von Risiken oft sehr schwer. Insbesondere der Umgang mit der Eintrittswahrscheinlichkeit eines negativen Ereignisses bereitet uns sehr große Probleme. Das klassische Beispiel ist die weitverbreitete Flugangst, begründet auf dem sehr unwahrscheinlichen Ereignis eines Absturzes – wohingegen die meisten von uns ohne Bedenken jeden Tag am deutlich gefährlicheren Straßenverkehr teilnehmen. Dieses paradoxe Verhalten hängt auch damit zusammen, dass wir über keinen mathematisch quantifizierbaren Begriff für das Risiko im Allgemeinen verfügen. Oder kurz: Wo man nicht objektiv messen kann, kann man auch nicht objektiv entscheiden. Im Portfoliomanagement hingegen existiert seit vielen Jahren ein quantitativer Risikobegriff. In jeder Bank, Fondsgesellschaft oder Versicherung sitzen Experten, die mit immer komplexeren Methoden versuchen, Risiken zu erkennen, zu bewerten und am besten zu vermeiden. Dabei ist das Wesen der Gefahr, nämlich der finanzielle Verlust, hier unstrittig. Die Eintrittswahrscheinlichkeit und die zu erwartende Höhe des Verlustes sind die großen Unbekannten. Basierend auf einer schier unüberschaubaren Menge von Daten existiert eine ebensolche Mannigfaltigkeit von Modellen, wobei Risikobegriffe wie ‚Volatilität‘, ‚Value at Risk‘ oder ‚Expected Loss‘ inzwischen nicht mehr alleine dem Expertenzirkel vorbehalten sind. Die Tatsache, dass ständig neue Methoden bekannt werden, zeigt, dass in der sinnvollen Interpretation der Daten die größte Schwierigkeit liegt. Eine in Fachkreisen berühmte Anekdote versinnbildlicht die Problematik im Umgang mit Daten: Während des zweiten Weltkriegs gründete das amerikanische Verteidigungsministerium die sogenannte Statistical Research Group (SRG). Hier wurden Flugbahnen, Routen, Angriffs- und Verteidigungsstrategien sowie vieles mehr berechnet. Eines Tages beschäftigte sich das Team mit der Frage, wie man Flugzeuge wohl gegen gegnerische Kugeln panzern müsste. Der simple Weg – eine umfassende Panzerung – hat den Nachteil, das Gewicht des Flugzeugs stark zu erhöhen. Zur Unterstützung des SRG übermittelte das Militär Auswertungen von zurückgekehrten Flugzeugen. Die Daten beinhalteten eine Aufschlüsselung von Einschusslöchern pro Quadratmeter je Teilbereich des Rumpfes. Die Offiziere erwarteten eine optimierte Panzerung, bevorzugt an den Stellen mit den meisten Einschusslöchern. Die Antwort der SRG war so verblüffend wie einleuchtend. Es müssen die Stellen gepanzert werden, die keine Einschusslöcher aufweisen, denn offensichtlich waren die Flugzeuge, die nicht zurückgekehrt waren, wohl genau dort getroffen worden. Das Militär setzte die Empfehlung um und die Rate abgeschossener Flugzeuge sank dramatisch. Wie man sieht, reicht das Vorliegen reiner Daten oftmals nicht aus. Ein guter Risikomanager muss die richtigen Annahmen treffen und vor allem auch zu relevanten Ergebnissen mit klaren Handlungsanweisungen kommen. IfW-Forum Nr. 24 Doch welche sind die richtigen Annahmen? Welches Modell beschreibt die Prozesse, die unsere Portfolien in den Verlust treiben, möglichst korrekt und vorausschauend? Welche Kennzahlen sind letztlich entscheidend für den Erfolg oder Misserfolg einer Anlagestrategie? Diese Fragen beschäftigen die Akteure an den Finanzmärkten seit vielen Jahrzehnten. Während die einen vor allem an makroökonomische Theorien glauben und möglichst allgemeine Wirtschaftsindikatoren beobachten, setzen die anderen auf technische Analysen der investierten Papiere. Letztlich können beide Gruppen Gewinne verbuchen, müssen aber auch immer wieder empfindliche Verluste hinnehmen, wobei jede Verlustphase genutzt wird, die neuen Informationen in ein noch komplexeres Modell einzuarbeiten – wir lernen also aus unseren Fehlern. Es bleibt aber eine sehr fundamentale Frage: Ist es letztlich nicht sehr riskant, Risikomanagement auf Modellen aufzubauen, die unserer Erfahrung entspringen, wir aber gerade Gefahren abwehren wollen, die wir uns unter Umständen gar nicht vorstellen können? Die Antwort darauf drängt sich geradezu auf – und im gleichen Atemzug entsteht der Wunsch, Verlustphasen erkennen zu können, ohne bestimmte kausale Zusammenhänge aus dem Fundus unserer Erfahrungen vorauszusetzen. Maschinelles Lernen: Zusammenhänge finden, die der Mensch nicht sieht Der Wunsch, zukünftige Ereignisse möglichst erfahrungs- und damit auch vorurteilsfrei mithilfe der Daten vergangener Vorkommnisse vorherzusagen, ist nicht auf den Finanzsektor beschränkt. Im Gegenteil, in den letzten Jahrzehnten konnte man einen bemerkenswerten Aufstieg einer neuen Disziplin der statistischen Wissenschaften beobachten, die sich genau dieses Ziel gesetzt hat. ‚Predictive Analytics‘ – vorausschauende Analyse – versucht, anhand großer Datenmengen Muster zu erkennen und daraus Schlüsse zu ziehen, die ausschließlich auf empirischen Zusammenhängen beruhen. Die Einsatzmöglichkeiten sind scheinbar unbegrenzt – angefangen von der Gesichtserkennung auf Flughäfen oder in sozialen Netzwerken über autonome Fahrzeuge und der automatischen Steuerung von globalen Liefer- und Fertigungsketten bis hin zur vorausschauenden Verbrechensbekämpfung (‚Pre-Crime‘). Der Ansatz ist dabei stets gleich: Durch die Auswertung riesiger Datensammlungen und dem ständigen Abgleich mit tatsächlichen Ereignissen versucht man, mithilfe sogenannter ‚Maschineller Lernverfahren‘ wiederkehrende Datenprofile zu erkennen und damit statistisch valide Modelle der Wirklichkeit zu finden. Der Begriff ‚Maschinelles Lernen‘ betont dabei, dass menschliche Erfahrungen und das subjektive Modellempfinden des Benutzers außen vor bleiben. Stattdessen werden entweder Beispielspaare von Eingangsparametern und gewünschtem Ergebnis (z. B. Gesichter und zugehörige Namen) vorgegeben, oder aber der Algorithmus entscheidet selbst, welche Entscheidungen und Klassifizierungen anhand der Daten möglich sind. Den Erfolg dieser Methoden können wir alle selbst beim Einkauf auf Internetportalen erfahren – oder in einigen Jahren als Fahrgast selbstfahrender Automobile. 15 IfW-Forum Nr. 24 Abbildung 1 verdeutlicht den fundamentalen Unterschied zur herkömmlichen modellgetriebenen Vorgehensweise. Statt eines vorgefertigten Modells der Wirklichkeit wird das gewünschte Verhalten vorgegeben – die Maschine versucht dann, die passende Modellierung selbst vorzunehmen. Modellgetriebener Ansatz Daten Erfahrungen, Wünsche Datengetriebener Ansatz Daten Gewünschtes Verhalten Entwicklung eines Modells Maschinelle Entwicklung des Modells Überprüfung auf gewünschtes Verhalten Überprüfung der Ergebnisse Vorverarbeitung der Daten Umsetzung des validierten Modells Produktiver Einsatz Aktivität Maschine Produktiver Einsatz Aktivität Mensch Abbildung 1: Unterschiede modellgetriebener und datengetriebener Verfahren. Anwendung maschineller Lernverfahren im Portfoliomanagement Wie kann man nun diesen datengetriebenen Ansatz im Portfoliomanagement einsetzen? Mit dieser Frage haben wir uns in einer Studie beschäftigt. Ziel war es dabei, die rein auf menschlicher Meinung und Erfahrung basierenden Modelle zu ignorieren und an deren Stelle Prozesse zu setzen, die durch algorithmische Verfahren ermittelt wurden. Mit anderen Worten: Wir geben das gewünschte Anlageverhalten vor, der Computer generiert ein Modell, welches dieses Verhalten reproduziert. Die von uns eingesetzte Methodik lernt also autonom mithilfe von Beispieldaten. Diese sind in unserem Fall Indexstände von Märkten und korrespondierende Anlageentscheidungen. Der besondere Charme besteht dabei darin, dass Rohdaten und gewünschtes Ergebnis nicht in einem bestimmten funktionalen Verhältnis stehen müssen – im Gegenteil, es ist ja gerade das Ziel, ein bis dato unbekanntes, passendes Modell zu finden. Selbst die Relevanz der zur Verfügung gestellten Daten für die Entscheidung wird von der Maschine infrage gestellt. Sollten irrelevante Daten enthalten sein, werden diese automatisch ignoriert. Auf diese Weise konnten wir eine vorgegebene trendbasierte Investmentstrategie zu mehr als 98 % reproduzieren, d. h. das maschinelle Lernverfahren war imstande, die Entscheidungen des Modells fast vollständig nachzuempfinden, ohne die darunterliegenden erfahrungsbasierten Annahmen zu kennen (siehe Abbildung 2). Interessanterweise konnte dabei gezeigt werden, dass selbst ohne externe Beeinflussung 16 IfW-Forum Nr. 24 bevorzugt dieselben Datenmerkmale betrachtet wurden, die auch dem Trendmodell zugrunde lagen. Ziel ist es aber natürlich nicht, nur ein vorliegendes Modell nachzuahmen. Vielmehr möchten wir modellfrei arbeiten. Im zweiten Schritt legten wir daher für ein global diversifiziertes Index-basiertes Portfolio Anlageentscheidungen a posteriori fest – wir kannten also die zukünftige Entwicklung und konnten optimal handeln. Anhand dieser Vorgaben sollte der Algorithmus wiederum ein Anlagemodell entwickeln, wobei er im Gegensatz zu uns stets nur die Vergangenheit kannte. Auch hier konnten wir über 90 % der Anlageentscheidungen nachahmen – eine erstaunliche Quote. Da die Abhängigkeit von den Parametern des maschinellen Lernverfahrens sowie den verwendeten Eingangsdaten noch recht hoch ist, stehen allerdings weitere Untersuchungen bis zur Anwendungsreife aus. Abbildung 2: Vergleich der Ergebnisse einer proprietären Investmentstrategie mit der daraus maschinell erlernten Strategie. Die blauen Punkte stellen Abweichungen im Investmentverhalten dar, wobei wöchentlich eine Entscheidung getroffen wurde. Mensch und Maschine ergänzen sich Die Verwendung maschineller Lernverfahren kann also helfen, unbekannte Modelle zu finden und damit auch unverstandene Zusammenhänge aufzudecken. Sie verlangt allerdings eine sorgfältige Vorverarbeitung der Rohdaten und eine gewissenhafte Auswahl der eingesetzten Methodik, die ein tiefes Verständnis der Lernprozesse voraussetzt. Da das Potenzial gewaltig erscheint, erwarten wir einen signifikanten Anstieg maschinell gestützter Investmentstrategien in den nächsten Jahren, trotz der hohen fachlichen Voraussetzungen. Maschinelles Lernen bietet somit die Möglichkeit, jenseits unseres Vorwissens, unserer Meinung und unserer Emotionen rationales und effektives Risikomanagement zu betreiben. Der Computer sucht auf unbestechliche Art und Weise Wirkungszusammenhänge in unüberschaubaren Datenmengen und hilft somit, unser Anlageverhalten zu optimieren. Grundlage dafür sind die vorliegenden Daten – den berühmten ‚schwarzen Schwan‘ kann auch diese Methode schwerlich finden. Daher wird, ergänzend zu modernsten datengetriebenen Verfahren, stets ein erfahrener Risikomanager notwendig sein. Das Risikomanagement mag Methoden der Gesichtserkennung verwenden – gesichtslos wird es dadurch aber nicht. Dr. Jochen Schmidt leitet die quantitative Analyse der Spectrum Capital Partners GmbH, Jens Stiepel ist deren Geschäftsführer. Der BaFin-lizensierte Vermögensverwalter hat sich auf systematisches, quantitativ gesteuertes Portfolio- und Risikomanagement spezialisiert und unterstützt insbesondere vermögende Privatanleger, Family Offices, Sparkassen sowie Banken und Versicherungen.
© Copyright 2024 ExpyDoc