Komplexität reduzieren – Machine Learning einfacher & schlichter
Noch vor der Umsetzung des ersten Use-Case wird zunächst die Daten- und ML-Plattform vollständig spezifiziert und aufgebaut. Die Use-Cases sind so speziell, da hilft keine Lösung von der Stange. Die automatische Fehlererkennung in der Produktion funktioniert nur mit einem neuronalen Netz. Die Churn-Prediction benötigt auch ein eigenes Modell und natürlich Vorhersagen in Echtzeit. Die zugrundeliegenden Daten ändern sich oft, deswegen müssen wir jederzeit auch das Modell ändern und deployen können.
Immer mehr Frameworks für Machine Learning, immer größere Modelle, immer mehr Tools rund um MLOps. Wer soll da noch mitkommen? Wir schauen genau hin:
- Was braucht es wirklich?
- Welche Komplexität ist notwendig und welche ist hausgemacht?
- Wo kann man vereinfachen?
Stellschrauben gibt es viele: Beim Modell, beim Deployment, bei der Infrastruktur, beim Vorgehen, bei der Automatisierung. Für alle Bereiche gibt es Vorschläge für einfachere Lösungen: fertige Modelle, APIs, die Cloud.
Diese werden kurz vorgestellt, natürlich mit einer Einordnung: Wann macht die einfache Lösung Sinn, welche Einschränkungen hat sie. Aber vor allem: Warum hilft sie Komplexität zu reduzieren?
Vorkenntnisse
Keine besonderen Kenntnisse jenseits von Grundlagen zu Machine Learning/Data Science notwendig.
Lernziele
- Eine Reflexion über die eigenen Projekte – ob bestehend oder neu.
- Wo kann ich vereinfachen? Habe ich Lösungen ausgeschlossen, die im Nachhinein besser wären? Wie kann ich jetzt auch bei mir Komplexität verringern?
- Dieser Talk gibt Einstiegspunkte, Inspiration und mögliche Lösungsansätze.