Vom 13. bis 17. Mai fand die diesjährige QuantMinds International Konferenz statt. Das Event ist jedes Mal in einer anderen Stadt zu Gast und hat sich diesmal Wien als Location ausgesucht. Für die drei Tage der Hauptkonferenz vom 14. bis 16. Mai war ich als Finanzjournalist vor Ort und berichte an dieser Stelle über interessante Insights sowie die wichtigsten Themen, über die quantitative Manager, Analysten und Forscher heute sprechen.
Machine Learning
Am ersten Veranstaltungstag gab Marcos Lopez de Prado von der Cornell University einen hervorragenden Überblick. Er stellte das inzwischen wohl größte Gebiet im Quant-Bereich, das maschinelle Lernen (ML), als modernes Tool dar, um Informationen aus Daten zu gewinnen, die nichtlinear und unstrukturiert sind und komplexe Interaktionen aufweisen. Genau das ist bei vielen Datensätzen an den Finanzmärkten der Fall. ML versucht, durch bestimmte Trainings- und Anwendungszeiträume eine verbesserte Prognosegüte gegenüber klassischen Modellen zu erreichen, aber gleichzeitig auch zu kontrollieren, dass keine Überoptimierung auf vergangene Daten stattfindet.
Dass dies leichter gesagt als getan ist, spricht de Prado ebenfalls an. Seiner Einschätzung nach ist die Modellierung von Finanzmarktdaten weitaus schwieriger als bei anderen Anwendungsgebieten – seien es natürlich klingende Textübersetzungen, selbstfahrende Autos oder zuverlässige Gesichtserkennungen. An den Märkten dagegen verändern sich die Parameter und Bedingungen immer wieder dynamisch, sodass ML im Asset Management bisher noch keinen entscheidenden Prognosevorteil erzielen konnte. Die grundsätzliche Herausforderung an den Finanzmärkten ist es, dass ML auch dann vermeintliche Muster findet, wenn es in den Daten überhaupt keine verlässlichen Zusammenhänge gibt.
In anderen Bereichen der Finanzindustrie sind die Algorithmen bereits weitaus erfolgreicher, etwa wenn es um die Einschätzung der Bonität von Kreditnehmern oder das Erkennen von Betrugsfällen bei Kreditkartentransaktionen geht. Auch für das Herausfiltern von Ausreißern bei Regressionen, die Positionsgrößenbestimmung auf Basis der gegenwärtigen Zuverlässigkeit einer Trading-Strategie sowie die Identifikation der wichtigsten Variablen eines konkreten Handelsmodells spielt ML heute eine wesentliche Rolle. Geradezu unerlässlich sind die Modelle dePrado zufolge inzwischen bei Rating-Agenturen und zur Erstellung bzw. Replikation von Analystenschätzungen.
All das bedeutet letztlich, dass ML zwar keineswegs der Heilige Gral an den Märkten ist, aber eine aussichtsreiche Technologie für die Zukunft darstellt. DePrado ist der Meinung, dass hier noch viel Potenzial schlummert. Demnach nach nutzen heute noch viele Manager den klassischen Ansatz der Mean-Variance-Portfoliooptimierung (MVO), obwohl das Paper „Optimal Versus Naive Diversification: How Inefficient is the 1/N Portfolio Strategy?“ von Victor DeMiguel, Lorenzo Garlappi und Raman Uppal schon im Jahr 2009 zeigte, dass die damit erzielbaren Sharpe Ratios gegenüber einer naiven Diversifikation im Out-of-Sample-Zeitraum systematisch schlechter ausfallen.
Das muss man sich auf der Zunge zergehen lassen: Es werden Daten, Arbeitszeit und Energie investiert, um die Allokationen zu verbessern – mit dem Ergebnis, dass ein schlechteres (!) Resultat entsteht, als wenn Schätzungen für Erträge, Risiken und Korrelationen von Vornherein einfach vernachlässigt werden. Der Grund: Die Schätzfehler der Modelle sind so groß, dass sie den Vorteil der Diversifikation überkompensieren. Hier könnte ML einen echten Fortschritt bringen, um für den eingesetzten Aufwand zumindest auch eine Outperformance gegenüber der naiven Diversifikation zu erzielen.
Tail-Risiko
Einen weiteren spannenden Vortrag hielt Robert Macrae vom Systemic Risk Centre zum Thema Tail-Risiko. Die Bewegungen, die außergewöhnlichen Marktbewegungen zugrunde liegen, basieren oft auf dem Prinzip „Verkaufe, was du kannst, nicht, was sinnvoll ist“. Mit anderen Worten: Es sind Extremsituationen, in denen Risikomodelle Alarm schlagen oder um jeden Preis Liquidität im Portfolio geschaffen werden muss.
Macrae stellte in seiner Präsentation die Frage, wie hoch die Wahrscheinlichkeit ist, dass der S&P 500 innerhalb eines kurzen Zeitraums von 20 oder 40 Tagen um 25 Prozent fällt. Entscheidend für die Antwort ist, ob man Tages- oder Wochendaten verwendet und ob das Jahr 1987 mit berücksichtigt wird. Dabei stellt sich die Frage, ob seit Einführung der Circuit Breaker ein Ereignis wie der Crash im Jahr 1987 als „unmöglich“ erachtet und die damaligen Daten als heute nicht mehr relevant eingeschätzt werden.
Dieser Sichtweise lässt sich entgegnen, dass die Betrachtung von Tagesdaten heute die Wahrscheinlichkeit großer Bewegungen unterschätzt, da diese stufenweise erfolgen können und deshalb bei Verwendung von Wochendaten durchaus eine gewisse Wahrscheinlichkeit für einen 25-prozentigen Verlust besteht – selbst dann, wenn es anhand der Tagesdaten „nie“ passieren sollte. Als bestes Modell schlägt Macrae letztlich vor, mit Wochendaten über 20 Jahre zu arbeiten. Seinen Simulationen zufolge sei es realistisch, dass einmal in 28 Jahren mit einem Verlust des S&P 500 in Höhe von 25 Prozent gerechnet werden kann.
Market Impact
Zum Thema Market Impact hielt Rama Cont von der University of Oxford einen spannenden Vortrag. Seinen Forschungen zufolge kann man nicht grundsätzlich feststellen, ob eine schnelle oder langsame Ausführung einer großen Order oder die Größe der Transaktion direkt Einfluss darauf haben, ob sich die Marktpreise durch die Orderausführung verschieben und es zu Slippage kommt. Vielmehr entscheidend sei, ob zum Zeitpunkt der Ausführung gerade ein Orderungleichgewicht zwischen Angebot und Nachfrage herrscht und falls ja, in welcher Richtung dies besteht.
Wer also eine große Kauforder platziert, während es am Markt gerade deutlich abwärts geht, muss keinen Market Impact seiner Order fürchten und kann im Gegenteil sogar eine positive Slippage erwarten. Analog dazu verhält es sich bei Verkaufs-Orders während eines bestehenden Aufwärtsimpulses.
Diese Erkenntnis erklärt auch die Beobachtung, dass große Akteure häufig in Stärke hinein verkaufen und neue Positionen in Schwächeperioden akkumulieren, da die Minimierung des Market Impact hier eine wichtige Rolle spielt. Handelt es sich dagegen um eine extrem große Order, so gesteht Cont ein, ist die Antwort nicht mehr so einfach, da diese dann ein zuvor günstiges Ungleichgewicht von Angebot und Nachfrage verschieben und damit die herrschende Bewegungsrichtung nachhaltig beeinflussen kann.
Die Details lassen sich in der Studie „Trade Duration, Volatility and Market Impact“ nachlesen.
Weitere Themen
Interessant war am letzten Konferenztag das Panel über neue Trends im Quant-Bereich. Unter anderem wies einer der Diskutanten, Peter Carr von der NYU Tandon School, darauf hin, dass es schon vor dem Jahr 2000 hervorragende Paper zur Modellierung von Volatilitätsregimes und Optionspreisen gab. Zwar haben wir heute viel mehr Rechenpower, aber das bedeutet nicht automatisch, dass es an den Märkten „leichter“ wird, Performance zu erzielen.
Carr wies darauf hin, dass die Komplexität eher noch zunimmt und die Märkte sich überhaupt andauernd verändern. Außerhalb der Modelle herrscht praktisch „Chaos“ an den Märkten, und bisher wurde keine abschließende Lösung gefunden, um in diesem Umfeld dauerhaft verlässlich agieren zu können. Das heißt natürlich nicht, dass die Quants aufgeben würden. Vielmehr werden die schlauesten Köpfe der Finanzindustrie auch weiterhin daran arbeiten, noch bessere, selbstlernende und anpassungsfähige Algorithmen zu entwickeln.
Es wurden noch weitere Themen diskutiert, darunter die Einbindung alternativer Daten in ML-Algorithmen, die neuesten Modelle zur Evaluierung von Optionspreismodellen, eine mögliche Umsetzung von Intraday-Zinsen via Blockchain und die Konstruktion eines impliziten Volatilitätsindex für den Bitcoin.
Insgesamt war die Konferenz inhaltlich überraschend tiefgründig und auf echte Experten zugeschnitten, sodass man ohne entsprechendes Vorwissen nur „Bahnhof“ versteht. Der Teilnehmerkreis repräsentierte einen guten Mix aus Praktikern und Akademikern verschiedener Quant-Bereiche. Einige Vorträge waren extrem fachspezifisch und enthielten viele Formeln, Code, Modelle und Mathematik, andere Präsentationen waren eher allgemein oder in Form von Panels organisiert. Gerade die themenspezifischen Panels stellten sich aufgrund der oft unterschiedlichen Meinungen der teilnehmenden Experten als spannendes Format heraus.
Sehr interessant! Danke dafür!
Ich glaube, das Machine Learning schwierig sein wird, da Märkte selbstreflexiv sind. Wenn alle AI dir gleiche Anomalie entdecken und traden, dann verschwindet sie.
Vermutlich wird die AI gewinnen, die am schnellsten läuft und Dinge entdeckt, bevor sie andere entdecken. Alle anderen werden vermutlich nicht wirklich gute Ergebnisse liefern.