Der Zuhörer sollte Interesse an technischen Ansätzen zur Realisierung erklärbarer KI mitbringen. Grundkenntnisse im maschinellen Lernen bzw. über neuronale Netze sind von Vorteil.
Es wird ein allgemeines Bewusstsein für das Thema Explainable AI und dessen Notwendigkeit geschaffen. Dabei werden unter anderem allgemeine Repräsentationsformate für Erklärungen der Vorhersagen komplexer Algorithmen präsentiert. Weiterhin wird aufgezeigt, wie es möglich ist, neuronale Netze mit hoher Vorhersagegenauigkeit zu trainieren, die gleichzeitig von leicht interpretierbaren Entscheidungsbäumen abgebildet werden können. Durch Demonstration des Ansatzes auf verschiedenen Benchmark-Datensätzen wird der erreichte Mehrwert hinsichtlich des Einblicks in die Entscheidungsfindung sowie der Zuverlässigkeit der gelieferten Erklärungen veranschaulicht.
Nina Schaaf ist wissenschaftliche Mitarbeiterin am Zentrum für Cyber-Cognitive Intelligence (ZCCI) des Fraunhofer-Instituts für Produktionstechnik und Automatisierung IPA. Ihr besonderes Interesse gilt Machine Learning im Allgemeinen sowie dem Forschungsfeld Explainable AI.