Transparente Zeitreihenprognosen: Explainable AI (XAI) für Business User bei der BASF
Warum hat sich die Wettervorhersage für heute schon wieder geändert?
Das fragen sich viele. Aber nicht nur Wettervorhersagen, auch Zeitreihenprognosen können sich im Laufe der Zeit ändern. Doch warum ist das so?
Diese Frage unserer Business User der Forecasting-Plattform bei BASF war eine unserer Hauptmotivationen, uns mit dem Einsatz von Explainable AI (XAI) für Zeitreihenprognosen zu beschäftigen.
SHAP-Werte, ein Ansatz aus der kooperativen Spieltheorie, ermöglichen es, individuelle Vorhersagen zu erklären. Sie quantifizieren die Größe und Richtung (positiv oder negativ) des Einflusses einer Funktion auf eine Vorhersage. Bei Zeitreihenprognosen helfen SHAP-Werte, die Unterschiede zwischen verschiedenen Modellen und Methoden zu verstehen und die treibenden Variablen hinter den unterschiedlichen Vorhersagen zu identifizieren.
Da unsere Business User eine verständliche Erklärung benötigen, war unser nächster Schritt, die Informationen aus den SHAP-Werten auf ihre wesentlichen Punkte zu reduzieren. Gemeinsam mit den Anwenderinnen und Anwendern haben wir schließlich eine optimale Darstellung entwickelt. Das Ergebnis ist eine XAI-Erweiterung unserer Forecasting-Plattform, die die Vorhersagen für die Business User transparent und nachvollziehbar macht.
Vorkenntnisse
Grundlegendes Verständnis des Vorgehens bei Machine Learing.
Lernziele
Lernziel ist ein Verständnis von Interpretation von Zeitreihenvorhersagen mittels SHAP-Werten zu erlangen, sowie deren Möglichkeiten und derzeitigen Beschränkungen zu verstehen.