Scheduler_09_512

Scheduling von Informatica PowerCenter-Mappings Teil 2

In einer von uns ausgeschriebenen und betreuten Abschlussarbeit, wurden verschiedene Optionen für das Scheduling von ETL-Prozessen, welche mit Informatica PowerCenter umgesetzt sind, untersucht. In diesem zweiten Beitrag zum Thema zeigen wir die Erkenntnisse, die durch die Arbeit gewonnen werden konnten.

Beitrag lesen »
Scheduler_01_512

Scheduling von Informatica PowerCenter-Mappings

ETL-Prozesse bestehen mitunter aus einer Vielzahl von ETL-Aktivitäten, zwischen denen komplexe Abhängigkeiten existieren können. Zur Orchestrierung eines korrekten Ablaufs der einzelnen ETL-Aktivitäten werden sogenannte Scheduling-Tools eingesetzt. In einer von uns ausgeschriebenen und betreuten Abschlussarbeit, wurden verschiedene Optionen für das Scheduling von ETL-Prozessen, welche mit Informatica PowerCenter umgesetzt sind, untersucht.

Beitrag lesen »
Datenausschnitt_Lieferversion

Datenausschnitt und Lieferversion – Grundbausteine zur Schaffung eines konsistenten Datenhaushalts mit Datenreifungsprozessen

Große Banken müssen jederzeit in der Lage sein, ihre verschiedenen Risikobereiche zu überblicken und an die zuständige Aufsicht zu melden. Die entsprechenden Daten müssen nicht nur aktuell, sondern auch hochwertig sein. Damit dieser Datenhaushalt metadatengetrieben und qualitätsgesichert verwaltet werden kann, nutzen unsere Berater Lieferversionen und Datenausschnitte.

Beitrag lesen »
© unsplash - Data Streaming - Big Data

Data Streaming – Evaluierung von Big Data Technologien

In einer von uns betreuten Masterarbeit wurden verschiedene Big Data Technologien im Bereich Data Streaming evaluiert. Dabei ging es um die Lösungen von Informatica Intelligent Streaming, Apache Spark Streaming und Apache Flink. Das Projekt hat nicht nur den Wissensaustausch zwischen Studierenden, Hochschulen und integration-factory gefördert, sondern einem neuen Kollegen auch den Einstieg in eine Karriere bei uns ermöglicht.

Beitrag lesen »
CIP Prozess

Continuous Improvement Process (CIP)

Ein Continuous Improvement Process (CIP) optimiert die Leistungsfähigkeit von Data Warehouses. Im Kundenprojekt bei der EEX haben wir einen CIP etabliert, der unterschiedliche Applikationen und Abnehmersysteme der Energiebörse Daten von hoher Qualität und Relevanz zur Verfügung stellt.

Beitrag lesen »
Workload Automation Querschnitt_512

Data Warehousing – Job Scheduling und Workload Automation

Der Betrieb eines Data Warehouses soll unter anderem die Datenzulieferungen aus unterschiedlichen Geschäftsapplikationen, Datenbanken und operativen Systemen zusammenzuführen und die Aktualität des Datenbestands absichern. Integration-factory setzt „Logical Units of Work“ ein, um Job Scheduling und Workload Automation effizient zu gestalten.

Beitrag lesen »
© Visual hunt - Bibliothek

Web Analytics mit Tableau und Google Analytics

Eine erfolgreiche Website ist von vielen Erfolgsfaktoren abhängig. Im Rahmen seiner Bachelor-Thesis hat sich unser Kollege mit dem Thema Web Analytics beschäftigt. Die Arbeit ermöglicht interessante Einblicke in die Grundlagen für einen Web Analytics Ansatz mit der BI-Software Tableau. Eine Weiterentwicklung des konzipieerten Dashboards befindet außerdem bereits im Praxiseinsatz.

Beitrag lesen »