Umsetzung von BCBS 239 im Data Warehouse
Seit 2007 hat die Welt mehrere globale Finanzkrisen gesehen, u.a. Subprime-Markt, Lehman Brothers und Eurokrise. Jede dieser Krisen hat gezeigt, dass eine adäquate Risikosteuerung in vielen Banken nicht zur Verfügung stand. Insbesondere fehlte es an geeigneten IT Systemen für das Risikomanagement.
Dieser Umstand ist natürlich nicht zukunftsfähig. Aus diesem Grund verabschiedete das Basel Committee on Banking Supervision (BCBS) die Grundsätze für die effektive Aggregation von Risikodaten und die Risikoberichterstattung. Die Grundregeln sind in der Leitlinie BCBS 239 veröffentlicht. Ziel ist es, schnell und rechtzeitig eine Indikation über den Zustand eines Finanzinstituts zu erhalten, um dadurch besser auf äußere Ereignisse reagieren zu können.
BCBS 239 stellt klare Anforderungen an das Datenmanagement und die IT Systeme. Diese werden in dem vorliegenden Whitepaper näher beleuchtet. Lösung für die Anforderungen ist eine integrierte Finanzarchitektur. Das Whitepaper beschreibt den Aufbau eines Financial Data Warehouse (FDW) im Kundenprojekt. Das FDW bildet den elementaren Baustein für die Harmonisierung und Konsolidierung des Datenhaushalts. Dadurch wird eine unternehmensweite eindeutige Sicht auf die wichtigsten Informationen geschaffen. Dies ist die Basis, um überhaupt schnell Risikoaggregationen durchführen zu können.
Das Whitepaper beschreibt eine idealtypische Architektur eines Financial Data Warehouse. Es wird aufgezeigt, welche BCBS 239 Grundsätze durch die gewählte Layer-Architektur und dem Modellansatz adressiert werden. Die Umsetzung erfolgt mit standardisierten und metadatenbasierten Datenintegrationskomponenten. Des Weiteren wird auf Nachhaltigkeitsaspekte aus der BCBS 239 Richtlinie eingegangen. Diese werden unter anderem durch eine bitemporale Datenablage erreicht. Durch die bitemporale Organisation der Daten nach transaktionaler und funktionaler Gültigkeit können alle jemals getroffenen Aussagen vollumfänglich im zeitlichen Kontext nachgestellt werden.
Zuletzt wird ein adaptierter Data Vault-Modellierungsansatz diskutiert. Dieser ist die Grundlage für entkoppelte Integrationssequenzen und bietet eine flexible Erweiterbarkeit des Datenmodells.