Alternative Daten in der Praxis erfassen: Wie können neuronale Netze die Nachrichtenstimmung verstehen?

Dr. Axel Groß-Klußmann aus dem Quoniam Research Forecasts-Team hat sich auf die Suche nach dem besten Ansatz zur Analyse täglicher Stimmungswerte für über 1.000 Wirtschaftsthemen gemacht. Die neuronalen Netzwerkmodelle sind wettbewerbsfähig, wenn es um die Erklärung von Aktienmarktbewegungen, Währungsänderungen, Anleiherenditen und die Vorhersage von Wirtschaftswachstum geht. Seine Arbeit wurde kürzlich in „Digital Finance“ veröffentlicht.

Axel, Du hast kürzlich deine Forschungsarbeit „Learning deep news sentiment representations for macro-finance“ in Digital Finance veröffentlicht. Was hat Dich motiviert, dieses Thema zu untersuchen?

Wann immer wir versucht haben, alternative Stimmungsdaten mit Finanzzeitreihen zu verknüpfen, war das größte Hindernis die Auswahl oder Gewichtung der zugrunde liegenden Geschichten oder Themen. Um Nachrichten, die zu Tausenden von Themen gesammelt wurden, mit einzelnen Finanzinstrumenten zu verknüpfen, ist eine Form der Dimensionsreduktion erforderlich. Die meisten statistischen Standardverfahren ließen jedoch zu wünschen übrig. Oft wurden zu viele Daten verworfen, während andere Ansätze zu einer Gewichtung der Themen führten, ohne den Kontext unseres Anwendungsfalls zu berücksichtigen.

Da neuronale Netze für diese Art von Aufgaben sehr gut geeignet sind, habe ich einfach eine Idee weiterverfolgt, die ich dazu hatte, wie man neuronale Netze einsetzen könnte, um das zu erreichen, was wir wollten. Dank der jüngsten Softwarefortschritte ist es sehr einfach geworden, neuronale Netze anzupassen und zu trainieren. Wir mussten also nur herausfinden, wie wir die Stärken der neuronalen Netze auf unseren Anwendungsfall im Finanzbereich übertragen konnten, und zwar mit viel weniger Datenpunkten, als normalerweise für das Training dieser Modelle verwendet werden.

Wie bist Du diese Fragen im Einzelnen angegangen?

Ich habe die Analyse mit Standardmethoden zur Dimensionsreduktion wie der Hauptkomponentenanalyse (PCA) begonnen. Es wurde jedoch schnell klar, dass wir aufgrund der Komplexität der Stimmungsdaten eine Form der Überwachung bei der Reduktion der Dimensionalität benötigten. Wir haben daher partielle kleinste Quadrate (PLS), Regressionsmethoden wie Ridge und Lasso oder überwachte PCA-Ansätze hinzugefügt. Ich hatte jedoch das Gefühl, dass wir die komplexen Merkmale der Nachrichtendaten noch besser mit aussagekräftigeren statistischen Ansätzen erfassen könnten, was uns direkt zum Autocoder-Zweig der neuronalen Netze führte.

Heutzutage sind verschiedene Softwarelösungen in diesem Bereich praktisch auf Knopfdruck verfügbar, so dass man ein neuronales Netz im Handumdrehen implementieren kann. Technisch gesehen habe ich PyTorch verwendet, ein beliebtes Open-Source-Paket für Deep Learning. In diesem Framework habe ich eine benutzerdefinierte Architektur für überwachte Autocoder programmiert, die sowohl Dimensionalitätsreduktion als auch überwachtes Lernen integriert. Einfach ausgedrückt, ermöglicht es diese spezielle Architektur dem Modell, kompakte Repräsentationen von Sentiment-Daten zu lernen, die durch das Monitoring bereits gut an unseren Anwendungsfall im Finanzbereich angepasst sind.

Was hast Du festgestellt?

Positiv war, dass das Training und die Codierung der neuronalen Netze viel einfacher waren als ursprünglich angenommen. Vor allem hat die Analyse den Mehrwert der individuellen Anpassung bei der Konstruktion statistischer Signale deutlich gemacht. Insbesondere die Implementierung von benutzerdefinierten Verlustfunktionen führte zu Datenrepräsentationen, die uns wesentlich besser gefielen als die der Standardansätze. Die Ergebnisse in den verschiedenen Anwendungsfällen sprachen durchweg für neuronale Netze. Interessanterweise war die Komplexität der neuronalen Netze in Bezug auf die Tiefe zweitrangig. Auch wenn es schwierig war, nach Berücksichtigung von Mehrfachselektionen usw. etwas deutlich Besseres als die Standardansätze zu erhalten, lieferten die neuronalen Netze Datenrepräsentationen, die für uns Praktiker relevanter waren.

Wie setzt Du diese Erkenntnisse bei Quoniam im Investitionsprozess um?

Während wir uns mit der Einbeziehung von aus neuronalen Netzen abgeleiteten Datendarstellungen in Anlagestrategien befassen, wird der vorgeschlagene Ansatz zunächst im Research-Prozess selbst am hilfreichsten sein. Ein Beispiel ist die Überprüfung von Datensätzen, die aus Text abgeleitete numerische Stimmungswerte für viele Themen enthalten. Der in dem Papier skizzierte Rahmen gibt uns einen sehr wettbewerbsfähigen Benchmark-Ansatz an die Hand, der direkt umsetzbare Signale erzeugen kann.

Lernen Sie mehr zu diesem Thema im veröffentlichten Aufsatz:

Learning deep news sentiment representations for macro-finance

DAS KÖNNTE SIE AUCH INTERESSIEREN
Artikel
September 2024
Wie niedrige Volatilität den Zinseszinseffekt erhöht – Fallstudie zu Emerging Markets

Die Low-Volatility-Anomalie erklärt die Vorzüge von von Anlagen mit niedriger Volatilität. Ein zusätzlicher Vorteil: Je geringer die Volatilität, desto höher der Aufschlag auf die Portfoliorendite. In ihrem White Paper fanden Carsten Rother und Dr. Xavier Gerard, CFA, heraus, dass der Low-Volatility-Ansatz in Schwellenländern das Risiko des Marktportfolios erheblich reduzieren kann, wodurch der Zinseszinseffekt außergewöhnlich stark ist.

Interview
Januar 2024
Bonds with Benefits: Nachhaltigkeit und Renditepotenzial in Unternehmensanleihenportfolios kombinieren

Können Anleger in Unternehmensanleihen Gutes tun und gleichzeitig eine attraktive Rendite erzielen? Das untersuchen die Quoniam-Experten Dr. Desislava Vladimirova und Dr. Jieyan Fang-Klinger in ihrer jüngsten Forschungsarbeit „Bonds with Benefits: Impact Investing in Corporate Debt“, die gerade im Financial Analyst Journal veröffentlicht wurde. Wir sprachen mit ihnen über ihre Forschung, ihre Ergebnisse und deren Bedeutung für Anleger.

Video
Oktober 2023
Asset Pricing: Missing Data and the Quality of Signals – talk with Michael Weber and Volker Flögel

What are the most common pitfalls that practitioners face when dealing with missing data? And is it possible to extend the history of data by backfilling datasets, for example with ESG data where there is not so much reliable historical data? Find out in this insightful discussion with Michael Weber, Associate Professor at the University of Chicago Booth School of Business, and Volker Flögel, CIO at Quoniam. Together they discuss how to deal with missing data in asset pricing and investment – also in light of the current market environment – and give an outlook on upcoming research in this area.