Ein klassisches Data Warehouse ist noch immer ein wichtiger und zentraler Bestandteil aktueller IT-Strategien. Sowohl in parallelen als auch integrierten Big Data Stores, die meist auf Hadoop basieren, werden Daten gesammelt, die in Zusammenhang mit den Daten des zentralen Data Warehouse gebracht werden sollen. Inzwischen gibt es eine Reihe Werkzeuge, die ein grafisches Interface zur Implementierung und Orchestrierung der Ladestrecken anbieten.
Am Beispiel des Oracle Data Integrator wird aufgezeigt, welche Grenzen aktuelle Systeme haben, welche Features sie mitbringen und wie diese gerade im Zusammenspiel von Hadoop und Oracle-Datenbanken funktionieren.
Skills
Kenntnisse der Datenintegration sowie Grundkenntnisse des Hadoop-Ökosystems werden vorausgesetzt.
Lernziele
Grundlagen zu Frameworks der Datenintegration im Hadoop-Ökosystem; Schnittstellen zwischen Hadoop und relationalen Datenbanken; Wissen über die Funktionen des Oracle Data Integrator als Beispiel für aktuelle ETL-Werkzeuge; Anforderungen an die Datenintegration zwischen Hadoop und relationalen Datenbanken.
// Referent
// Tobias Laube
ist Head of Business Intelligence bei der virtual7 GmbH. In seiner täglichen Arbeit als Principal Consultant konzipiert und implementiert er Lösungen in den Bereichen Big Data, Business Intelligence, Data Warehouse und Data Integration. Seit 2010 ist die Schnittstelle zwischen Big Data und relationaler Datenwelt in seinen Fokus gerückt.