Wer professionell Datenprodukte bereitstellen möchte, benötigt Plattformen für Data Science, Machine Learning und AI, die Nachvollziehbarkeit, Reproduzierbarkeit, Flexibilität und Skalierbarkeit gewährleisten. Dazu werden skalierbare Storage- und Compute-Kapazitäten genauso benötigt wie eine Workflowsteuerung für ML-Pipelines, ein Analysefrontend oder ein Metadatenmanagement.
Wir zeigen, wie auf Basis von Kubernetes eine solche Plattformen aufgebaut werden kann, die sich durch CI/CD-Pipelines flexibel konfigurieren lässt und verschiedene ML-Frameworks und Programmiersprachen unterstützt.
Vorkenntnisse
Grundlegendes Verständnis von Daten, Data-Science-Prozessen und Container-Plattformen ist hilfreich.
Lernziele
Die Zuhörer haben einen Überblick über die Anforderungen an Data-Science-Plattformen und wie eine Architektur mit Kubernetes aussehen kann.
//
Hans-Peter Zorn
@data_hpz
ist Head of Machine Perception & AI bei inovex. Er beschäftigt sich mit Machine Learning, Verarbeitung natürlicher Sprache und anderer unstrukturierter Daten. Zudem hilft er Kunden bei der Umsetzung ihrer Big-Data-Architekturen basierend auf Open-Source-Technologien.
// Stefan Igel
ist Head of Big Data Solutions bei der inovex GmbH und entwickelt mit seinem Team seit 2010 Big-Data-Anwendungen für viele verschiedene Kunden.