Sparkassen Versicherung 5/5 (12) Lesedauer 3 Minuten

Share on facebook
Share on twitter
Share on linkedin
Share on xing
Share on whatsapp
Share on email
Sparkassen Versicherung Logo
  • Name: SV SparkassenVersicherung Holding AG
  • Sitz: Stuttgart
  • Gründung: 1758 bzw. heutige Struktur seit 2004
  • Branche: Versicherung

Kurzprofil

Die SV SparkassenVersicherung ist mit fast 4 Millionen Kunden einer der führenden Versicherer in den Bundesländern Baden-Württemberg, Hessen, Thüringen und in Rheinland-Pfalz. Die SV SparkassenVersicherung ist im Bereich der Gebäudeversicherungen Marktführer. In Baden-Württemberg und Hessen sind etwa zwei Drittel aller Häuser bei der SV versichert.
In der SV SparkassenVersicherung arbeiten rund 5000 Mitarbeiter im Innen- und Außendienst. Für die Kunden gibt es 350 Geschäftsstellen und 105 Sparkassen im Geschäftsgebiet.
Vor einigen Jahren wurde bereits ein Digitalisierungsprogramm ins Leben gerufen um digitale Technologien im Unternehmen anwenden zu können.

Projekt

Im Rahmen des Digitalisierungsprogramms hat die SparkassenVersicherung 2018 das Projekt „Datenanalyse“ gestartet, in dem eine Big Data Landschaft aufgebaut werden soll. Um dieses Ziel zu erreichen, stellt integration-factory das Data Engineering Team. Sowohl Architektur als auch Implementierung werden durch unsere Mitarbeiter unterstützt und durchgeführt.

Entwickelt wird in einer Laborumgebung, dem sogenannten Big Data Labor. 2020 soll zusätzlich ein produktives Cluster aufgebaut und eingeführt werden, welches in die Prozesse der SV Systemlandschaft integriert ist. Grundlage für das Big Data Labor ist Cloudera Enterprise mit „Cloudera Manager“ (CM) und „Cloudera’s software distribution including Apache Hadoop“ (CDH).
Im Bereich Datenintegration wird auf Informatica Data Engineering Integration (DEI) (vorher Informatica Big Data Management (BDM)) und Apache Spark zurückgegriffen.
Architektur: Lambda Architektur, Landing Zone, Batch Layer, Service Layer, Speed Layer
Folgende Aufgabenfelder werden dabei durch die Mitarbeiter von integration-factory betreut:

  • Datenintegration (ETL)
  • Betrieb und Wartung des Informatica Servers
  • Betrieb und Wartung der Cluster Server
  • Konfiguration von Informatica
  • Konfiguration der Cluster Komponenten
  • Verprobung neuer Services
  • Beratung beim Aufbau des Produktivclusters
  • Konzeption und Realisierung Data Governance
  • Konzeption und Realisierung Security
  • Umsetzung diverser Use Cases

Teamgröße
Das gesamte Big Data Labor besteht momentan aus ca. 15 Leuten, drei Personen von der integration-factory. Die Teamgrößen der einzelnen Use Cases innerhalb des Labors variieren zwischen 2 und 5 Personen. Zurzeit befindet sich das Team für die Produktivumgebung im Aufbau.

Technologien
Data Engineering Integration, Cloudera, Apache Spark, Apache Hadoop, Apache Hive, Hue, Apache Hbase, Apache Kafka, Apache Sentry, Apache Parquet, SUSE Linux, Automic UC4

Aufbau und Ausbau der Big Data Plattform (01/2018 - heute)

  • Installation und Konfiguration von Informatica DEI als zentrale Datenintegrationsplattform
  • Administration und Konfiguration des Cloudera Clusters
  • Erstellung von Entwicklerrichtlinien zur einheitlichen Entwicklung mit Hilfe von Informatica DEI
  • Aufbau von sog. Standardobjekten, die Daten für die gesamte Plattform vereinheitlichen
  • Einführung von Security und Data Governance

Kaufwahrscheinlichkeiten (01/2018 – heute)

  • Import und Aufbereitung der Daten im Cluster
  • Unterstützung der Data Scientists

Kundenwert Ausbaustufe 1 (07/2018 – 10/2019)

  • Analyse und Konzeption mit dem Fachbereich
  • Entwicklung des Kundenwerts mit Informatica DEI

Schadenregulierung (01/2018 – heute)

  • Web-Applikation zur Selbstregulierung von Schäden
  • Preisermittlung per Bing-Websearch
  • Technische Unterstützung
  • Installation und Verprobung neuer Services
  • Etablieren eines Webservices über REST
  • Technologien: Informatica DEI, node.js, Apache HBase, Python

Biometrie (10/2018 - heute)

  • Import und Aufbereitung der Daten im Cluster
  • Unterstützung der Data Scientists

Streaming (11/2019 - heute)

  • Entgegennahme von Stammdaten aus dem Bestandsführungssystem über Apache Kafka
  • Technologien: Apache Kafka, Apache Spark (Structured Streaming), Apache HBase, Informatica DEI

Ausweiserkennung (04/2019 – heute)

  • Technologien: Apache Spark, Tensorflow

Customer Journey (10/2019 - heute)

  • Analyse und Konzeption mit den Use Cases
  • Entwicklung der Customer Journey mit Informatica DEI

Kündigungsprognose (09/2019 - heute)

  • Unterstützung der Data Scientists