Vom Modell zur Umsetzung

Informationsfabrik | Technologien

Informationsfabriken verfolgen das Ziel, heterogene Daten aus verschiedenen Systemen effizient miteinander kombinierbar, vergleichbar und analysierbar zu machen und somit einen entscheidenden Informationsvorteil für das Unternehmen zu erzielen. Die Berichtserstellung und Analyse der geschäftlichen Abläufe soll dann mithilfe dieser Systeme jederzeit reproduzierbar, korrekt und widerspruchsfrei mit geringem Aufwand für Fachanwender leistbar sein.

Die integration-factory Referenzarchitektur

Referenzarchitektur

Die integration-factory Referenzarchitektur für eine Informationsfabrik ist das Ergebnis einer konsequenten Umsetzung des integration-factory Lean Integration Ansatzes. Ein solches IT-System muss organisiert sein wie eine Fabrik: Möglichst ohne manuellen Aufwand und damit weitestgehend vollautomatisiert müssen Daten von der Laderampe zur Qualitätssicherung, Integration und Aufbereitung in wertvolle Informationen und Erkenntnisse transformiert werden, so dass die Ergebnisse dieser Integrationsaufgabe aktuell sind und damit einen echten Mehrwert für Entscheidungen und angeschlossene Geschäftsprozesse darstellen.

Die Komponenten einer solchen Informationsarchitektur leiten sich aus den wahrzunehmenden Aufgaben ab:

Receive: Essentiell für die Effektivität und noch viel mehr für die Effizienz ist die technologische Eigenschaft, Daten aus einer Vielzahl von Quellen abnehmen zu können. Datenintegrationswerkzeuge bieten ein reiches Spektrum verschiedenster Konnektoren. In einigen Anwendungsfällen, insbesondere bei der Erfassung von Daten aus Realtime-Datenquellen müssen spezielle Konnektoren erstellt werden. integration-factory hat diverse Realtime-Anbindungen an Data Warehouse-Systeme durch effiziente, eigenentwickelte Realtime-Konnektoren realisiert. Unter anderem werden TCP/IP- und UDP-Message Bus-Systeme als auch Request-Reply-Schnittstellen angebunden. Über letztere lässt sich die Informationsfabrik auch um Datenkorrektur- und Workflow-Komponenten erweitern.

Integrate: Das Herzstück einer Informationsfabrik ist sicherlich eine gut organisierte, sorgfältig aufgesetzte Datenintegrationsschicht und ein durchdachtes Datenmodell. Neben den fachlichen Eigenarten, die jedem Projekt und jeder Aufgabenstellung innewohnen, lassen sich doch wesentliche technische Aspekte standardisiert lösen. Durch eine einheitliche, standardisierte Datenintegrationsschicht und ein standardisiertes Datenmodell mit wiederverwendbaren Kernkomponenten und Implementierungsmustern lässt sich die Fabrik effizient, robust und vor allem zukunftssicher aufsetzen, weiterentwickeln und betreiben. Durch die allgemeingültigen technischen Lösungen kann der Fokus auf die Fachlichkeit und damit auf die Informationsgewinnung gelegt werden.

integration-factory hat praxiserprobte Lösungen, die einen nachhaltigen, persistenten, harmonisierten und granularen Datenhaushalt herstellen und aktuell halten. Durch unsere Core Components Library mit direkt einsetzbaren Lösungen, Modell- und Verarbeitungsmustern sind wir in der Lage, innerhalb kurzer Zeit wertvolle Projektergebnisse zu erzielen. Unmittelbar verwendbare Lösungen für das Landing eingehender Daten, die Aufbereitung in fachliche Entitäten, die bitemporale Ablage in einem effizient organisierten, normalisierten Datenmodell und schließlich die Konsolidierung in harmonisierte, unternehmensweit einheitliche Entitäten sorgen für das Fundament eines schnellen Projekterfolgs.

Calculate: Eine Informationsfabrik bietet die ideale Plattform für die Berechnung wertvoller Kennzahlen, da die Daten zum einen in einer qualitätsgesicherten, integrierten Form und zum anderem vor allem einfach im Zugriff vorliegen. Naheliegend ist daher, diverse Methoden bzw. Funktionen direkt auch auf dieser Infrastruktur aufzusetzen. integration-factory hat diverse Backend Applikationen zur Berechnung fachlich komplexer Informationen auf Basis riesiger Datenmengen entwickelt. Die entworfenen Algorithmen lösen vor allem Probleme der Ressourcenallokation und sind vielfältig einsetzbar. Im Ergebnis stehen dem Berichtswesen und angeschlossenen Geschäftsprozessen die integrierten, granularen Basisdaten und die aus den Methoden gewonnenen Informationen zur Verfügung. Damit stellt die Informationsfabrik ein umfassendes Informationsangebot bereit.

Package: Der Zweck der Informationsfabrik ist immer, Konsumenten und Geschäftsprozesse mit maßgeschneiderten Informationen versorgen zu können. Erfolgsfaktoren sind das standardisierte und Performance-optimierte Datenmodell und eine effiziente Datenintegrationskomponente. Jederzeit muss klar sein, wie der Ladezustand und die verfügbare Datenqualität ist, um konsistente und bedarfsgerechte Informationspakete bereitstellen zu können. Und die Informationspakete müssen sich vergleichsweise einfach und damit effizient und kostengünstig herstellen lassen.

Deliver: Die Eigenschaft, Daten bzw. Informationen schnell, sicher, robust und kostengünstig an Geschäftsprozesse und andere Konsumenten auszuliefern, ist essentiell für den Erfolg eines solchen IT-Systems. Eine Informationsinfrastruktur muss auch ausgangsseitig diverse Kanäle bedienen können: von der klassischen Batchschnittstelle mit nahezu beliebigen Varianten von auszutauschenden Formaten bis hin zu Message-basierten Lieferungen in Echtzeitsysteme. Des Weiteren muss die Informationsfabrik einen leichten Zugang zu den integrierten Informationen bieten, um ein effizientes analytisches Arbeiten zu ermöglichen.

Das Management einer Informationsfabrik ist dafür verantwortlich, dass die Erzeugnisse (Informationsprodukte) aus der Fabrik in hoher Qualität zu vereinbarten Lieferterminen den Kunden an definierter Stelle zur Verfügung stehen. Die Leistung der Fabrik wird zudem am Verhältnis zwischen Aufwand und Output beurteilt. Am Anfang der Wertschöpfungskette stehen die Datenlieferanten, am Ende die Abnehmer der Informationsprodukte. Im Vergleich zu den vielen anderen Erzeugnissen ist bei Informationsprodukten die Aktualität entscheidend. Zudem variiert auch die Menge der zu verarbeitenden Quelldaten an verschiedenen Tagen mitunter stark. Hieraus ergeben sich häufig enge Produktionszeitfenster.

In diesem Spannungsfeld werden Informationen über den Produktionsprozess zur Überwachung, Steuerung und Produktions-Planung der Informationsfabrik unerlässlich. Mit den richtigen Informationen, analytisch aufbereitet, können folgende Fragen jederzeit und umfänglich beantwortet werden:

  • Lieferverpflichtung und Qualität
  • Produktionsplanung
  • Kapazitätsplanung
  • Ressourcen-Ausnutzung und Kosten
  • Performance und Identifizierung von Verbesserungspotential

Die integration-factory Referenzarchitektur sieht für diese Aufgabenstellung eine eigene Systemkomponente vor: In unserer operativen Metadaten Analyse Lösung OMA haben wir eine Integration der wichtigsten operativen Metadaten einer Informationsfabrik entwickelt.

Die Datenintegration

Die Aufgabe der Datenintegration ist die Aufbereitung verteilt vorliegender, heterogener Daten, so dass die weitere Verarbeitung für Entscheidungsfindungen und zur Unterstützung automatisierter Geschäftsprozesse optimal erfolgen kann. Wir fassen Datenintegration als den gesamten Prozess von der Akquisition, über die Integration in ein Zielmodell, die weitere Aufbereitung und Verwertung zur Ableitung wertvoller Informationen bis hin zur auf die Abnehmer zugeschnittenen Präsentation und Auslieferung der Informationen auf.

Integration bedeutet auch immer die Einigung auf Standards. Für viele Aufgabenstellungen haben wir Konzepte und schnell adaptierbare Verarbeitungsmuster entwickelt, die praxiserprobt sind und erfolgreich bei namhaften Kunden in unterschiedlichsten Anwendungsfällen zum Einsatz kommen.

Das Data Warehouse als Fabrik

Daten sind Rohstoffe und deren Aufbereitung und Überführung in ein Data Warehouse führen zu wertvollen Informationen, die wiederum die industrialisierten Zwischenprodukte für Entscheidungen und Aktionen sind. Die zentrale Komponente eines solchen Systems, das Data Warehouse, muss also organisiert sein wie eine Fabrik. Informationen müssen möglichst ohne manuellen Aufwand kosteneffizient produziert, verteilt und zugreifbar gemacht werden. Wie in einer Fabrik muss in einem Data Warehouse die Produktion von Informationen überwacht werden, um den Produktionsablauf und die Qualität kontrollieren und Engpässe und Optimierungspotenziale erkennen zu können. Wir haben Konzepte, die einen effizienten und schnellen Aufbau eines Data Warehouses ermöglichen.

Die Big Data Infrastruktur

Big Data bietet neue Chancen, bisher schwer zugängliche Daten nutzbar zu machen. Auch eine Big Data Infrastruktur muss sich an der Zugreifbarkeit von Daten für die Transformation zu wertvollen Informationen messen lassen. Selbst wenn Big Data jenseits von ausschließlich strukturierten Daten angesiedelt ist, profitiert der Aufbau einer Informationsinfrastruktur von der Standardisierung und praxiserprobten Konzepten. Wir begleiten Big Data sowohl auf der Seite der Datenintegrations-Toolanbieter als auch durch Lösung komplexer Problemstellungen über Spark-Implementierungen.

Das Master Data Management

Master Data Management hat die zentrale Aufgabe, einheitliche, konsolidierte und qualitätsgesicherte Sichten auf elementare Unternehmensdaten herzustellen. Dazu haben wir einen vollständigen Master Data Management Processing Stack entwickelt und sind in der Lage, diesen auf verschiedene Anwendungsbereiche aus dem CRM-Umfeld oder auf die Erfassung und Konsolidierung von externen Daten für operative Geschäftsprozesse zu adaptieren. Unsere Lösungen zur Schaffung konsolidierte Objekte als echte, unternehmensweite Masterdaten basieren auf der Integrationslösung und einem schlauen, schlanken Metadaten-Konzept. Hierdurch lassen sich zu Grenzkosten und ohne Einsatz zusätzlicher Tools folgende Anwendungsfälle abbilden:

  • Konsolidierung nach Quellenpräferenz
  • Konsolidierung nach Zeitpräferenz
  • Konsolidierungsregeln in Abhängigkeit der Assetklasse

 

first_pagechevron_lefthomechevron_rightlast_page