27.10.2017

Verhüllte Revolution des klassischen Risk & Finance Data Managements – Risk & Regulatory Analytics

Die stetig wachsende Fülle an Regularien birgt versteckte Chancen; Künstliche Intelligenz wird zur Realität; Digitalisierung setzt sich schneller durch als gedacht; der Suchmaschinengigant Google wird zur Internetbank – die verhüllte Revolution des klassischen Risk & Finance Data Managements hat begonnen. Neue Erfolgschancen, Geschäftswege und strategische Vorteile werden freigesetzt. Der Weg zur „Risk & Finance Data Intelligenz“ führt von einer einfachen erfassten Dateneinheit über den regulatorischen Fluss bis hin zum erzeugten und umgesetzten bankweiten strategischen Vorsprung. Auf diesem Weg helfen die Werkzeuge von Risk & Regulatory Analytics, die richtigen Entscheidungen zum richtigen Zeitpunkt auf Basis vollständiger Risikodaten zu treffen.

Das klassische Risikomanagement – einst als einfache Schutzfunktion angedacht – gewinnt eine neue proaktive Rolle angesichts regulatorischer Entwicklungen (BCBS 239, ­MaRisk, AnaCredit, BIRD), Fortschritten in der Digitalisierung sowie steigender Bedeutung von Datenqualität & -management. Die neuen Entwicklungen stellen die Finanzinstitute fachlich und technisch vor neue Herausforderungen. Nicht nur die Zahl der Regularien steigt, auch die Veränderungsgeschwindigkeit sowie die Datenmengen nehmen enorm zu.

Im Jahr 2014 stellte der Asset Quality ­Review (AQR) – eine umfassende Prüfung der Europäischen Zentralbank (EZB) – die 130 größten ­Banken im Euro-Währungsgebiet vor große Herausforderungen hinsichtlich der fachlichen Qualität und Verfügbarkeit granularer Daten in Risk & Finance. Ziel dieser Prüfung war die Stärkung des Vertrauens in den europäischen Finanzsektor durch eine erhöhte Transparenz über die Stabilität der Banken. Der Regulator führte eine Untersuchung von Risikoportfolien und eine Berechnung sämtlicher Stressszenarien durch. Diese EZB-Prüfung sowie die vorherige Finanzkrise haben als Ergebnis gezeigt, dass die Banken enormes Optimierungspotenzial bzgl. schneller und flexibler Auswertung sowie Bereitstellung der Finanz- & Risikodaten haben (Vgl. Pressemitteilung Europäische Zentralbank, 2014).

Die typischen Herausforderungen erstreckten sich von der IT über die Organisation bis hin zu den Prozessen der Kreditinstitute. In der IT stellte sich eine schwankende Datenqualität, manuelle Befüllung sämtlicher Datenlücken sowie fehlende Abstimmbarkeit der Daten aus unterschiedlichen Bereichen (Risk, Finance, Accounting etc.) heraus. Die Organisation der Finanzinstitute hatte mit einer nicht optimalen bereichsübergreifenden Kommunikation sowie unzureichender Lieferbarkeit durch Ad-hoc-Lösungen zu kämpfen. Eine hohe Zahl an manuellen Datenflüssen, hoher Abstimmungsbedarf, uneinheitliche Begriffsdefinitionen sowie die fehlende Verzahnung zu parallelen regulatorischen und fachlichen Themen deutete auf die offensichtlichen Schwächen mehrerer Banken hin.

Die Erkenntnisse aus der Finanzkrise, verstärkt durch die Ergebnisse der EZB-Prüfung, hatten zur Folge, dass veröffentlichte Regularien wie BCBS 239, der Entwurf zur 5. MaRisk-Novelle sowie AnaCredit die Verzahnung von Risk & Finance Data Management in den Mittelpunkt der Umsetzungsvorhaben der Institute stellten. Die Schwerpunkte neuer regulatorischer Anforderungen liegen bei der effektiven Risikodatenaggregation und -berichterstattung, Datenqualität, Governance & Management (Vgl. Basler Ausschuss für Bankenaufsicht, 2013). Was im ersten Schritt als lästige Umsetzung vorgeschriebener Regeln gesehen wird, führt bei einem „Out-of-the-box“-Denker zur Erkenntnis eines, bis jetzt kaum ausgeschöpften, Potenzials für die Finanzinstitute.

Risk & Finance treffen Data

Auf den regulatorischen Fluss zwischen der Aufsicht und den Finanzinstituten folgt der ­Datenfluss in entgegengesetzte Richtung. Der Basler Ausschuss für Bankenaufsicht (BCBS, Basel Committee on Banking Supervision) definiert die internationalen Standards Basel I-IV, die von der EZB als nationale Bankenaufsichtsstandards ausgelegt werden und bei der Aufsicht von den nationalen Zentralbanken durch die Finanzinstitute umgesetzt werden. Die Finanzinstitute wiederum stellen ein großes Volumen an Daten dem Regulator im Rahmen der statistischen und regulatorischen Meldungen (BISTA, FINREP, COREP, AnaCredit, IFRS9, etc.) zur Verfügung. Diese Daten werden von den nationalen Zentralbanken für sämtliche Statistiken und bankenaufsichtliche Zwecke sowie von der EZB und dem BCBS für geldpolitische Maßnahmen und Evaluierung der Systemstabilität eingesetzt.

Durch den Zusammenfluss dieser vielfältigen Daten entstehen einige Pools an Informationen, die sich für unterschiedliche Zwecke wertvoll auswerten lassen.

Klassisches Risk & Finance Data Management im Fokus der regulatorischen Anforderungen

Seit der Finanzkrise rückte das klassische Risk & Finance Data Management in den Fokus des Regulators in Form der Erweiterung bestehender Erhebungen von statistischen Daten, sowie von umfangreichen aufsichtsrechtlichen, risikobasierten Daten. BCBS 239 verschärft die durch den Konsultationsentwurf der Bundesanstalt für Finanzdienstleitungs­aufsicht (BaFin) zur fünften MaRisk-Novelle formulierten Prinzipien für eine integrierte Finanz- und Risikoarchitektur bei den Kreditinstituten (Vgl. MaRisk-Novelle, Bundesanstalt für Finanzdienstleistungsaufsicht, 2016). Zur gleichen Zeit verfolgt die Aufsicht eine Optimierung der Aufnahme und Auswertung von Datenzulieferungen sowie die Entwicklung eines standardisierten und vereinfachten Datenaustausches zwischen Banken und Aufsicht. Mit dem durch BIRD – “Banks’ Integrated Reporting Dictionary“– neu vorgegebenen Datenmodell für Meldewesen sowie dem European Reporting Framework (ERF) wird die Verbesserung der Datenqualität und die Minimierung der Berichterstattungsbelastung angestrebt.

Mit BCBS 239 formuliert der Regulator erstmals verbindliche Anforderungen für Datenqualität & -management ergänzt um den Aufbau einer umfassenden Data Governance für Risikodaten, entsprechende Prozesse und IT-Infrastruktur. Ein Datenqualitäts-Management-System soll prozessuale, methodische sowie technische Maßnahmen zur Überwachung und nachhaltigen Sicherstellung der Datenqualität beinhalten. Das Datenqualität-Governance-System wird als ein Rahmenwerk für Rechte, Pflichten, Verantwortlichkeiten sowie Entscheidungen bezüglich der Datenqualität definiert (Vgl. Basler Ausschuss für Bankenaufsicht, 2013).

Die Banken generieren große Mengen an Daten zur Erfüllung der statistischen und aufsichtsrechtlichen Berichtsanforderungen. Um die Bewältigung dieser anspruchsvollen Aufgabe zu erleichtern, hat der Statistik­ausschuss des ESZB das neue Datenmodell, BIRD entworfen. Dieses Datenmodell ist ein freiwilliges und öffentliches Tool mit dem Ziel:

  • die Datenkonsistenz im Meldewesen zu verbessern,
  • die Effizienz bei den Prozessen zu steigern,
  • die Komplexität zu vereinfachen,
  • die Kosten zu senken und
  • das Datenmanagement zwischen Banken und Aufsicht zu harmonisieren.

(Vgl. Banks‘ Integrated Reporting Dictionary, 2017)

 

Durch diverse regulatorische Anforderungen werden die Finanzinstitute zum Aufbau einer integrierten Finanz- und Risikoarchitektur (IFRA) für umfassende und flexible Risiko- & Finance-Datenerfassungen, -auswertungen, und -bereitstellungen geführt. Dies ist ein wesentlicher Baustein des Grundgerüsts für die Automatisierung, Industrialisierung, Einführung intelligenter Funktionalität sowie einer R&R Analytics Funktion.

R&R Analytics – der Weg zur „Risk & Finance Data Intelligenz“

Der regulatorische Fluss und der Datenfluss fordern neue Kompetenzen, um zur so genannten „Risk & Finance Data Intelligenz“ zu gelangen.  „Risk & Finance Data Intelligenz“ beschreibt den Weg von der einfachen, erfassten Dateneinheit bis hin zum erzeugten und umgesetzten bankweiten strategischen Vorsprung. Um einen ersten Überblick darüber zu gewinnen, sind folgende wichtige Bestandteile der „Risk & Finance Data Intelligenz“ zu beachten:

  • Daten: Rechtzeitige und vollständige Erfassung sämtlicher wesentlicher Risikodaten aus verschiedenen Systemen und Quellen
  • Information: Tiefgehende Datenanalyse & Bereinigung, Ergänzung um auswertungs­relevante Inhalte sowie Transformation von großen Mengen an Rohdaten in auswertbare Information in Echtzeit
  • Wissen: Analyse von ausgewerteten Informationen, Erkennung von komplexen Zusammenhängen und anschließende Ableitung eines Mehrwertes im R&R Bereich
  • Mehrwert: Bereichsübergreifende Umsetzung des abgeleiteten Mehrwertes und dessen weitere Transformation
  • Vorsprung: Gewinnung eines Wettbewerbsvorteils und strategischen Vorsprungs

Erste FinTechs und RechTechs, des TME Networks, wie bspw. „Inspirent“, zahlen auf diese Strategie ein (Vgl. T3n Digital Pioneers, 2017).

Die richtigen Entscheidungen führen zur ­Optimierung der Risikosituation und damit Erhöhung der Gewinne, Entstehung neuartiger Geschäftsmodelle, rechtzeitigen Reaktion auf Marktentwicklungen (Identifizierung von Klumpenrisiken), zu einem Wettbewerbsvorteil und entsprechendem strategischen Vorsprung. Auf dem Weg zur „Risk & Finance Data Intelligenz“ helfen die Werkzeuge von Risk & Regulatory Analytics, die richtigen Entscheidungen zum richtigen Zeitpunkt auf Basis vollständiger Risikodaten zu treffen.

Unterstützung für Risk & Finance Data Management

Risk & Regulatory Analytics erfordert neue Wege und bietet schnellere Erkenntnisgewinnung. Auf dem Weg zur „Risk & Finance Data Intelligenz“ verbergen sich einige Herausforderungen, die sich mit der richtigen Risikoausrichtung in Möglichkeiten und Chancen verwandeln lassen. Die zentralen Herausforderungen lassen sich wie folgt zusammenfassen:

Datenbereitstellung: Herausforderung bei der Zusammenführung von Informationen aus unterschiedlichen Datenhaushalten mit verschiedener Datengranularität und heterogene Verantwortlichkeiten. Hier besteht die Notwendigkeit der Erweiterung oder eines neuen Ausbaus von Schnittstellen und Lieferstrecken. Ein hoher Automatisierungsgrad, die Reduktion von manuellen Zulieferungen und Korrekturen, die Lieferfähigkeit durch belastbare Prozesse und letztendlich ein einheitliches Zielbild des Datenmanagements sind die Lösungen.

Datenverfügbarkeit, -qualität und -konsistenz – über verschiede Portfolien, Systeme, Dimensionen (Retail, Non-Retail; Front-/Middle-Office-Systeme; Controlling, Regulatory, Risk, Accounting) lässt sich durch systematische, umfassende Prozesse und Strukturen aufbauen. Somit ist die Behebung von Datenlücken, sowie das Aufsetzten von Regelprozessen und Abstimmhandlungen über verschieden Systeme und Meldungen erforderlich. Das Ergebnis ist eine effiziente und nachhaltige Finanz- und Risikoarchitektur.

Normierungsfragen: Vereinheitlichung von Begriffsdefinitionen und das Aufsetzen einer zentralen Datenbasis. Die Klärung von Unklarheiten bei fachlichen Definitionen führt zu einer Übernahme der durch den Regulator definierten Begrifflichkeiten z. B. aus der CRR (CRM, Risikodaten).

Umsetzungsfragen: prozessuale, organisatorische und technische Verankerung auf der Instituts- und auch Konzernebene.

Das R&R-Analytics-Angebot hilft dabei, neu entstehende Entwicklungen im aufsichtsrechtlichen Bereich vor dem Hintergrund der großen Datenmengen und der Digitalisierung zu identifizieren, zu analysieren, umzusetzen und zu steuern. Die Begleitung der Optimierung von Risk-, Finance- und Meldewesen-spezifischen Prozessen für eine Automatisierung und Industrialisierung ist ebenso ein Bestandteil des R&R-Analytics-Angebotes, wie die Entwicklung einer spezifischen Business-Intelligence-Funktionalität für statistische Analysen und die Beratung bei der Planung, Steuerung und Kontrolle strategischer und aufsichtsrechtlicher Reportings durch Auswirkungsanalyse und Simulationen. Das R&R-Analytics-Angebot umfasst eine End-to-End-Begleitung auf dem Weg zur „Risk & Finance Data Intelligenz“.

Autoren: Alexandra Yaroslavtseva, Stefan Steinhoff