Commerzbank

Logo CommerzbankName: Commerzbank AG

Sitz: Frankfurt am Main | Gründung: 1870 | Branche: Bank / Finanzdienstleistungen

Kurzprofil

Als eine führende, international agierende Geschäftsbank mit Kernmärkten in Deutschland und Osteuropa ist die Commerzbank ein kompetenter und fairer Partner ihrer Privat- und Firmenkunden. Mit 50.000 Mitarbeitern ist die Commerzbank, nach der Deutschen Bank, größter Arbeitgeber im Finanzsektor und, gemessen anhand der Bilanzsumme, die viertgrößte Bank in Deutschland. Aktuell betreut die Commerzbank fast 13 Millionen Privatkunden in Deutschland und 5 Millionen im europäischen Ausland. Neben dem starken Privatkundengeschäft gilt die Commerzbank seit Jahren als Marktführer im Firmenkundengeschäft und betreut weltweit 60.000 Firmenkunden.

Projekte

Im Rahmen Ihrer Digitalisierungsstrategie hat die Commerzbank Ende 2016 den Bereich Big Data & Advanced Analytics geschaffen und möchte bis Ende 2018 eine konzerneigene Big Data Plattform aufbauen. In diesem Rahmen führt integration-factory verschiedene Projekte mit 100 weiteren Spezialisten durch. Folgende Aufgabenfelder werden dabei durch die Mitarbeiter von integration-factory betreut:

  • Konzeption und Realisierung der Data Lake- und Integrationsplattform. Grundlage für den Data Lake bildet die Hortonworks Data Plattform und IBM BigInsights. Im Bereich Datenintegration wird auf Informatica Big Data Management (BDM) und Apache Spark zurückgegriffen.
  • Entwurf und Aufbau der Infrastruktur, insbesondere Installation und Konfiguration von Informatica Big Data Management (BDM)
  • Planung und Entwurf von weiteren Systemarchitekturen aus dem Big Data Umfeld wie Apache Spark, Apache Kafka oder Waterline
  • Umsetzung von Teilprojekten im Rahmen des Programms Big Data & Advanced Analytics

Teamgröße

Die Teamgrößen variieren zwischen 4 und 6 Personen.

Technologien

Informatica Big Data Management (BDM), IBM Big Insights, Hortonworks Data Plattform, Microsoft SQL Server, Apache Spark, Apache Hadoop, Apache Ranger, Apache Knox, Apache Parquet, Linux, Automic UC4

Aufbau und Ausbau der Big Data Plattform (10/2016 – 11/2017)

  • Installation und Konfiguration von Informatica Big Data Management (BDM) als zentrale Datenintegrationsplattform
  • Konzeption und Umsetzung von Security Richtlinien
  • Evaluierung und Durchführung von Proof of Concepts zum Betrieb der Plattform
  • Erstellung von Entwicklerrichtlinien zur einheitlichen Entwicklung mit Hilfe von Informatica Big Data Management (BDM)
  • Performanceoptimierung und Übernahme von Maintenance-Aufgaben von Informatica Big Data Management (BDM)

Umsetzung regulatorischer Anforderungen der Geldtransferverordnung (11/2016 – heute)

  • Aufbereitung und Analyse der fachlichen Spezifikationen unter Berücksichtigung spezifischer Quellsysteme (HDFS, MSSQL)
  • Technische Implementierung von ETL-Anwendungen zur Erkennung unvollständiger Zahlungsverkehrsdaten auf Basis von SWIFT-Nachrichten und EBCDIC mit Hilfe von Informatica Big Data Management (BDM)
  • Aufbereitung der Daten zur Übermittlung regulatorischer Kennzahlen an die Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin) und die interne Compliance Abteilung der Commerzbank
  • Koordination und Durchführung von Testszenarien
  • Technische Unterstützung der Plattform

MiFID II – Regulatorische Anpassungen (09/2017 – 05/2018)

  • Analyse, Planung und Umsetzung regulatorischer Richtlinien zum Thema Client Identifier auf Grundlage der Big Data Plattform
  • Entwicklung von ETL-Strecken mit Hilfe von Informatica Big Data Management (BDM) und Apache Spark zur Bestimmung und Prüfung der Client Identifier Richtlinien
  • Aufbereitung und Konsolidierung der Datenbestände zur performanceoptimierten Verarbeitung mit Informatica Big Data Management (BDM)
  • Ausleitung und Weitergabe des Client Identifier an externe Systeme

Client Steering und Performance (CSP) (07/2017 – heute)

  • Technische Konzeption und Implementierung basierend auf fachlichen Spezifikationen unter Verwendung von Informatica Big Data Management (BDM), Big SQL, Hive, MS SQL und Apache Spark. Darüber hinaus Unterstützung bei der Konzeption und Aufsetzung von Prototypen und Datenintegrationsprozesspattern.
  • Erstellung von Vorlagen für das Team CSP Backend
    • Historisierung von Entitäten
    • Auswertung und Analyse verschiedener Input-Quellen
    • Testfallerstellung
  • Koordination mit Fachabteilungen und dem eigenen Projektteam zur Sicherstellung der fachlichen Korrektheit
  • Unterstützung im Test Support und Dateningestion