In diesem Workshop wird gezeigt, wie sich mit dem SMACK-Stack (bestehend aus Spark, Mesos, Akka, Cassandra und Kafka) eine skalierbare Plattform sowohl zum Analysieren großer Datenmengen als auch für das Verarbeiten von Streaming-Daten erstellen lässt.
Die Tools des Stacks werden aufgesetzt und konfiguriert und anschließend in einem durchgehenden Use Case verwendet. Für den Workshop werden Cluster bereitgestellt, auf denen die Teilnehmer arbeiten können.
Skills
Basiswissen in Scala oder Java sowie der Linux Shell
Lernziele
Nach diesem Workshop kennen die Teilnehmer die Integration der einzelnen Komponenten des SMACK-Stacks. Sie können basierend auf Mesos die verschiedene Komponenten starten und miteinander verknüpfen. Die Teilnehmer können außerdem Anwendungen entwickeln, die sowohl Streaming-Daten verarbeiten als auch bestehende Datenmengen analysieren.
// Referenten
//
Matthias Niehoff
@matthiasniehoff
arbeitet als IT-Consultant bei der codecentric AG in Karlsruhe. Dort beschäftigt er sich insbesondere mit Big-Data- und Streaming-Anwendungen auf Basis von Apache Cassandra und Apache Spark. Dabei verliert er aber auch andere Tools und Werkzeuge im Big-Data-Bereich nicht aus den Augen. Matthias teilt seine Erfahrungen auf Konferenzen, Meet-ups und Usergroups.
//
Florian Troßbach
@ftrde83
arbeitet als IT-Consultant bei der codecentric AG. Seine Wurzeln hat er in der klassischen Java-Enterprise-Entwicklung, mittlerweile gilt sein Hauptaugenmerk jedoch dem Themenbereich "Fast Data" und dem SMACK Stack.