In diesem Workshop wird Spark zunächst aufgesetzt, und es werden mit der Spark-Shell die wesentlichen Funktionen erarbeitet. Anschließend bauen die Teilnehmer eine Applikation, die auf einem Cluster ausgeführt wird. Dabei wird auch auf Spark Streaming, Spark SQL und die MLLib eingegangen, um einen umfassenden Überblick über die Möglichkeiten von Spark zu erhalten.
Für das Hands-on-Training wird ein Laptop mit installiertem JDK (mindestens 6) benötigt. Der Laptop sollte mit ausreichend RAM (minimum 4 GByte, besser 8 GByte) ausgestattet sein. Spark funktioniert grundsätzlich auch auf Windows, alternativ lässt sich aber auch auf einer Linux VM arbeiten.
Skills
Scala- oder Java-Kenntnisse
Lernziele
Nach diesem Training können die Teilnehmer ein Spark-Cluster starten sowie Big-Data-Anwendungen mit Spark erstellen und auf einem Cluster ausführen.
// Referent
// Matthias Niehoff
arbeitet als IT-Consultant bei der codecentric AG in Karlsruhe. Dort beschäftigt er sich insbesondere mit Cassandra und der Enterprise-Variante von DataStax. Zu diesen Themen hält er auch Schulungen und Vorträge. Außerdem interessiert er sich für Continuous Delivery und das Spring Framework sowie dessen Ökosystem.