Foundation | Welcome

Menu


Gastbeitrag: Management der Datenkomplexität könnte für Asset Manager zum Game-Changer werden

Das Asset Management ist einem steten Wandel unterworfen. Besonders auffallend ist dabei die zunehmende Bedeutung von alternativen Assetklassen (Alternatives). Neben Wertpapieren, Derivaten und Geldmarktinstrumenten nehmen immer mehr Rohstoffe, Immobilien, Infrastrukturanlagen, Private Equity und Private Debt Raum in den Portfolios ein. Gründe für diese Entwicklung gibt es viele: Neben der Suche nach Alpha, dem Rückzug von Banken aus bestimmten Geschäftsfeldern, dem wachsenden Anlegerinteresse nach ESG und Impact Investments gehört auch der zunehmende technologischen Fortschritt zu den Ursachen, warum immer mehr Asset Manager Alternatives in ihre Portfolien aufnehmen. Der Fantasie sind dabei keine Grenzen gesetzt und ständig kommen neue Märkte und Assets hinzu: Zweitmärkte, außerbörslicher Handel, Hedgefonds, Insurance Linked Securities (ILS) und Krypto-Assets stehen zunehmend auf dem Plan der Portfoliomanager.

Maxim Pertl

Portfolien werden dadurch nicht nur leistungsfähiger, was die Rendite betrifft, auch Risiken lassen sich durch die Kombination nicht-korrelierter Anlageklassen vermindern. Doch plagen viele Vermögensverwalter auch zunehmend Sorgen: Das zugrundeliegende Datenmanagement steigt in Umfang und Komplexität und könnte sich in Zukunft als entscheidender Wettbewerbsfaktor herausstellen. Auf jeden Fall ist es aber ein Kostenfaktor: Etwa 90% der Versicherer und Asset Manager erwarten, dass die Kosten für IT und Datenmanagement in Zukunft steigen, wie aus einer aktuellen Umfrage der Davies Group hervorgeht. Auch verschiedene Währungen, Rechnungslegungssysteme und Reporting-Standards machen die Datenbewältigung nicht gerade leichter. Die immer komplexer werdende Datenflut erfordert mehr denn je, die Dinge zu vereinheitlichen, um effizient damit arbeiten zu können. Viele Unternehmen haben dazu bereits Inhouse-Lösungen kreiert, die aber häufig in Sackgassen enden oder immer aufwändiger und teurer werden. Zudem muss man sich fragen: Ist die Bereinigung und das Management der Daten wirklich eine Kernkompetenz eines Asset Managers?

Lehman und Wirecard: Mit mehr Transparenz Compliance stärken
Da Assets – klassische und alternative – immer vielfältiger und unüberschaubarer werden, wird es für Anleger immer schwerer, Informationen aus dem laufenden Engagement zu erhalten und zu bewerten. Gleichzeitig steigen die Anforderungen der Anleger in Punkto Transparenz immer weiter. Stellte die „Black Box“ vor Jahrzehnten noch eher die Regel als die Ausnahme dar, wollen Anleger heute genau wissen, wo sie wie investiert sind und wie hoch Rentabilität und Liquidität sind. Besonders akut kann eine solche Fragestellung bei Schieflagen werden: Noch während der Finanzkrise konnte es zum Beispiel Monate dauern, um die damals akute Frage „Wie groß ist das Exposure zu Lehman Brothers?“ zu beantworten. Wie die Finanzkrise gezeigt hat, kann keine Liquidität jemals ausreichen, wenn Kunden oder Einleger das Vertrauen verlieren, denn nicht alle Vermögenswerte können bei der EZB in Bargeld umgetauscht werden.

Auch der letzte Finanzskandal um den Bilanzbetrug von Wirecard hat vielfach offengelegt, wie wichtig ein effektives Datenmanagement ist, etwa als sich im Nachhinein herausstellte, dass einige Fonds die gesetzlich vorgeschriebene Zehnprozentgrenze in Titel eines Emittenten mittels Derivaten umgangen haben. Wirtschaftsprüfer und Regulatoren wie die BaFin hatten in der Vergangenheit immer wieder Schwierigkeiten, Bilanzen und Portfolioanlagen zu prüfen. Demzufolge liegt auch in der Compliance ein wichtiges Anwendungsfeld für ein verlässliches Datenmanagement.

Cloud-Native-Technologie
Lösungen kommen aus dem Gebiet der Software-as-a-Service (SaaS)-Technologien. Diese ermöglichen, komplette Prozesse auszulagern, um Zeit und Geld zu sparen. Dazu zählt die „cloud native“-Technologie. Der Name bezieht sich auf die Idee, Anwendungen so zu gestalten, dass man die Vorteile eines dezentralen Computings, wie es bei einer Cloud der Fall ist, nutzen kann. Cloud-native Anwendungen haben den Vorteil, dass sie die Skalierbarkeit, Elastizität, Resilienz und Flexibilität der Cloud maximal ausnutzen können.

Im Idealfall sieht das Ganze so aus, dass alle erforderlichen Arbeiten einmal professionell umgesetzt werden und dies dann allen Anwendern zugänglich gemacht wird. Gibt es zum Beispiel eine Kapitalmaßnahme bei der X-AG, können die Nutzer darauf vertrauen, dass dies auf der Plattform zentral implementiert wird. Das gleiche gilt für Schnittstellen zu allen möglichen Vendoren der einzelnen Anlageklassen und Produktkategorien, so dass stets alles auf dem neuesten Stand ist. Die notwendigen Updates laufen permanent im Hintergrund, ohne dass Anwender es bemerken oder gar eigene Kapazitäten für manuelle Anpassungen einbringen müssen. Man spricht auch von Echtzeitplattformen. Diese stehen im Kontrast zu monatlichen oder quartalsweisen Updates bei traditionellen Lösungen.

Saubere Daten, saubere Reports
Entscheidend sind dafür jedoch auch saubere und aktuelle Daten. Sei es für aussagekräftige Analysen und darauf basierte Geschäftsentscheidungen, fehlerfreies Reporting oder das Training unterstützender KI-Systeme durch maschinelles Lernen. Im Idealfall sollten dafür Primärdaten verwendet werden, die als besonders verlässlich gelten. Ein Beispiel ist Private Equity, wo direkt auf Daten der General Partner der Projekte zugegriffen werden kann.

Aber selbst hier bleibt das Datenmanagement eine arbeitsintensive Aufgabe. Unstimmigkeiten können ständig auftreten und erfordern eine Bereinigung in Echtzeit. Ein weiteres Problem stellen auch die in vielen Häusern historisch gewachsenen „Silos“ dar, etwa für einzelne Geschäftsbereiche wie Listed Business, Alternatives oder OTC-Derivate, die erst aufwändig aggregiert werden müssen.

KI wird immer effektiver
Dank moderner KI lässt sich der Abgleich von Daten automatisch gestalten. Stimmen etwa die Angaben von 99 Vendoren überein, aber ein Anbieter hat Abweichungen, lässt sich eine klare Klassifizierung vornehmen. So können rund 90% aller Daten direkt verarbeitet werden, lediglich der verbleibende Rest wird von Mitarbeitern manuell evaluiert, dieser dafür gründlicher und umfassender. Auch für das Training der KI stehen immer mehr Daten zur Verfügung, sodass die Modelle letztlich effektiver arbeiten können. Dies ist allerdings auch nur dann möglich, wenn die Daten sauber sind. Denn auch bei KI-Modellen gilt: „Garbage in, Garbage out“.

Cloud-Native-Plattformen könnten auch bei einem Personalproblem helfen, dem viele Unternehmen gegenüberstehen: Erfahrene Mitarbeiter, die über Jahrzehnte komplexe Legacy-Systeme verwaltet haben, gehen reihenweise in Pension. Junge IT-Spezialisten finden sich aber kaum für diese Aufgaben. Der Kampf um Talente könnte sich durch die Technologie also etwas entspannen.

Bei Übernahmen und Fusionen können „Altlasten“ eines Lecagy-Systems zum Bremsklotz werden. Denn wer möchte sich schon eine komplizierte, gewachsene Struktur einverleiben, um diese dann aufwändig integrieren zu müssen? Darüber hinaus lässt sich auf Basis einer Cloud-Native-Struktur leichter und schneller in neue Märkte expandieren, da die entsprechende Regulatorik im System hinterlegt ist. Mandate in diesen Ländern können so ohne aufwändigen Aufbau eigener Ressourcen gewonnen werden.

---
*) Maxim Pertl, Partner, Asset-Owners & Managers DACH & CEE, Clearwater Analytics