19.12.2024, 10:18 Uhr
Jacques-Aurélien Marcireau, Co-Head of Equities bei Edmond de Rothschild Asset Management, erwartet dass das thematische Trio aus Momentum, generativer Künstlicher Intelligenz (KI) und «Trump-Trade» seine starke...
«Auch in der Algo-Welt sind menschliche Experten nach wie vor unverzichtbar. Nicht die neueste Technologie, sondern die Fähigkeiten der Systementwickler entscheiden darüber, ob eine dauerhafte Outperformance erzielt werden kann», schreibt David Pieper, Mitgründer und Systematic Strategies Specialist, Intalcon Asset Management GmbH.
Der Umfang an relevanten Finanzmarktdaten ist heute so gewaltig, dass Menschen sie kaum noch manuell verarbeiten können. «Wir sind alle Quants», schreibt Campbell Harvey deshalb in seinem Paper «Why Is Systematic Investing Important?». Er bringt damit laut Pieper auf den Punkt, was erfahrene Marktteilnehmern schon längst wissen: «Quantitative Analysen sind nicht mehr nur für systematische, sondern auch für diskretionäre Manager ein entscheidender Teil des Anlageprozesses. So basieren systematische Investments auf Algorithmen mit definierten Regeln, auf deren Basis objektive Handelsentscheidungen getroffen werden. Diskretionäre Manager treffen ihre endgültigen Entscheidungen zwar selbst, nutzen für den Entscheidungsprozess aber zunehmend quantitative Tools.»
Vor rund 35 Jahren war gemäss Harvey systematisches Investieren eine Marktnische, die hauptsächlich aus trendfolgenden Handelssystemen bestand. Später wurden Algorithmen zur quantitativen Aktienselektion entwickelt, um Einzelwerte zu identifizieren, die für bestimmte Strategien gehandelt beziehungsweise über- oder untergewichtet werden sollten. Dabei wurden über Preis- und Volumendaten hinaus bereits fundamentale Informationen wie Bewertung, Wachstum oder Rentabilität mit einbezogen. Als nächstes folgten Smart-Beta-Strategien, die sich auf bestimmte Anlagestile bzw. Renditefaktoren wie den Value-Effekt konzentrierten. Parallel entwickelte sich der systematische Hochfrequenzhandel durch spezialisierte, bis an die Zähne hochgerüstete Marktteilnehmer, was zur dauerhaften, deutlichen Reduktion der Handelskosten an den Märkten beitrug.
Der jüngste Trend im Bereich systematischer Investments ist Machine Learning. Dies resultierte daraus, dass durch technischen Fortschritt sehr hohe Rechenleistungen sowie beinahe unbegrenzte Daten und Speicherkapazitäten verfügbar wurden. Gemäss Harvey spielte aber auch Open Source Software eine wichtige Rolle: Dadurch wurden Software-Entwickler viel effizienter, weil sie das Rad nicht jedes Mal neu erfinden mussten. Sie können nun einfach auf GitHub zugreifen, wo es neben frei verfügbaren Lösungen auch eine Community gibt, die sich mit ähnlichen Themen beschäftigt.
Als grössten Vorteil des systematischen Handels nennt Harvey die damit verbundene Disziplin. Algorithmen basieren auf Regeln, die sie emotionslos und ohne verzerrende Verhaltenseffekte umsetzen. Sie halten zum Beispiel nicht unnötig an Verlust-Trades fest, was menschliche Trader aber durchaus tun (Dispositionseffekt). Selbst in Phasen starker Turbulenzen bewahren Algos also stets einen «kühlen Kopf» und können dabei sogar von Fehlern beziehungsweise Verhaltenseffekten diskretionärer Händler profitieren. Denn Emotionen wie Euphorie oder Panik zeigen sich in bestimmten Mustern und können somit entsprechend systematisch ausgenutzt werden.
Ein weiterer Vorteil der Maschinen liegt in ihrer enormen Kapazität zur Verarbeitung von Informationen. Angesichts der Explosion von Big Data können diskretionäre Manager die Datenmengen heute nicht mehr ohne Computerunterstützung verarbeiten. Hinzu kommt, dass Algorithmen ihre Arbeit extrem schnell und unermüdlich effizient erledigen. Sie sind deshalb auch in der Lage sind, kurzfristige Effekte wie etwa wichtige Nachrichten am Markt sofort zu erkennen.
Algos sind laut Pieper aber nicht perfekt. Sie stellten eine Vereinfachung unserer komplexen Welt dar und seien sie oft stark parametrisiert. Per Konstruktion wurden sie zu einem bestimmten Grad auf vergangene Daten angepasst, was ihre Flexibilität begrenzt. Aufgrund des schlechten Signal-to-Noise-Ratios an den Märkten wird bei vielen Strategien – oft unbewusst – das zufällige Rauschen, statt das wahre Signal, optimiert. Daraus resultierten überoptimierte Algorithmen, die im Backtest gut aussehen, aber im Live-Handel enttäuschen.
Hinzu kommt die Nichtstationarität der Märkte. Die Welt ändert sich, wie ein bekanntes Sprichwort an den Märkten sagt: «This time is always different». Die Optimierung eines stationären Algorithmus an einen nichtstationären Markt ist deshalb zum Scheitern verurteilt. Alternativ dazu ist es aber selbst mit der heutigen Technologie eine enorme Herausforderung, einen zuverlässigen Algorithmus zu konstruieren, der sich mit der Zeit angemessen an ein verändertes Marktumfeld anpasst.
Als weitere Herausforderung beschreibt das Paper die Black-Box-Problematik. Diese tritt häufig bei Machine-Learning-Anwendungen auf, die rein datengetrieben sind, statt auf soliden wirtschaftlichen Zusammenhängen zu basieren. Anleger sollten sich deshalb vor Aussagen von Managern hüten, die nicht verraten können oder wollen, wie ihr Modell funktioniert. Denn selbst die komplexesten Algorithmen lassen sich zu einem gewissen Grad zurückverfolgen – zum Beispiel, indem Schocks in die Eingabeparameter eingespeist werden, um dann die Veränderung der Outputs zu analysieren. Harvey schlussfolgert, dass deshalb alle Algorithmen erklärbar sein sollten.
Last but not Least ist das Beschaffen und Bereinigen grosser Datenmengen mit erheblichem Aufwand und hohen Kosten verbunden. Ein Beispiel sind die notwendigen IT-Ressourcen für ein zuverlässiges Datenbankmanagement sowie ausreichend hohe Rechenkapazitäten. Was die Qualität der aufbereiteten Daten angeht, ist ausserdem höchste Sorgfalt geboten. Denn selbst der beste Algorithmus kann nur dann gute Ergebnisse erzielen, wenn seine Datenbasis korrekt ist.
Selbst dann, wenn alle Fallstricke und Herausforderungen beachtet werden, kann auch im Algo Trading auf eines nicht verzichtet werden: menschliche Expertise. Denn wie Jack Forehand in seinem Artikel «When Quantitative Becomes Discretionary» schreibt, ist es ein grosser Unterschied, ob die menschliche Entscheidungsfindung im Anlageprozess nur reduziert oder aber ganz eliminiert werden soll. Zwar scheint so manches Modell im Vergleich zu diskretionären Strategien überragend zu sein, aber in Wahrheit sind auch systematische Strategien nach wie vor durch diskretionäre Einflüsse geprägt. Das liegt daran, dass quantitative Modelle nicht einfach auf Autopiloten laufen können.
Forehand zufolge ist die Wahrscheinlichkeit für langfristig attraktive Renditen zwar umso höher, je mehr eine Strategie konkrete Regeln beinhaltet – oder diese selbst aufstellt, um dann ihr Handeln zu bestimmen –, und je konsequenter diese Regeln befolgt werden. Doch letztlich steht hinter den Regeln oder deren Erstellungsgrundlagen immer ein Mensch oder ein ganzes Team. Und auf dieser Ebene müssen eine Reihe von Entscheidungen über die Strategie getroffen werden, die erheblichen Einfluss darauf haben, wie sich das Ganze im Lauf der Zeit entwickelt.
Er beschreibt drei Beispiele, wie die menschliche Entscheidungsfindung auch bei den besten quantitativen Strategien eine Rolle spielt:
Systematisches Investieren wird nach Einschätzung von Campbell Harvey dauerhaft Bestand haben und noch weiter an Bedeutung gewinnen. Allerdings sollte man die zur erfolgreichen Umsetzung von Algorithmen erforderliche Komplexität nicht unterschätzen. Diese resultiert aus dem notwendigen Zusammenspiel einer ausgeprägten Kompetenz im klassischen Investmentbereich, der erforderlichen Expertise im Bereich quantitativer Datenanalyse sowie der notwendigen technischen Ausstattung.
Menschliche Experten bleiben insbesondere auch in der Systementwicklung von zentraler Bedeutung. Das gilt auch im scheinbar autarken Machine Learning, um etwa zu Beginn aus hunderten verfügbaren Modellen überhaupt den für die jeweilige Strategie am besten geeigneten Ansatz auszuwählen. Weiterhin müssen die Modelle zunächst auch erfolgreich trainiert und später in Echtzeit ausgeführt werden.
Die Idee einer rein quantitativen Strategie ist also eher ein Mythos als eine Realität. Es ist deshalb genauso wichtig, die Menschen und den Prozess hinter einem Handelssystem zu bewerten wie die Strategie selbst.
Quantitative Modelle sind ein grosser Vorteil im Anlageprozess. Algorithmen helfen dabei, Strategien konsequent umzusetzen und dem Sirenengesang emotionaler Entscheidungen zu widerstehen. Das heisst aber nicht, dass alles quantifiziert werden kann oder sollte. Es geht eher darum, das richtige Mass an Diskretion innerhalb des gesamten Anlageprozesses zu finden. Letztlich kann auch die Algo-Welt ohne den Menschen nicht funktionieren. Technologie allein erhöht nicht die Wahrscheinlichkeit einer Outperformance am Markt. Diese hängt letztlich von den Fähigkeiten des Teams ab, das diese Technologie anwendet. Trotz aller Fortschritte im Systemhandel sind wir also meilenweit davon entfernt, die menschliche Entscheidungsfindung völlig aus dem Anlageprozess zu eliminieren.