Die Anzahl an Machine Learning-basierten Anwendungen im alltäglichen Leben steigt rasant. Wo früher statisch programmierte Regeln für die Funktion eines Programms verantwortlich waren, setzt man heutzutage vermehrt auf dynamische Modelle. Deren Ausgabe steht nicht von vornherein fest, sondern hängt sehr stark von den verwendeten Trainingsdaten ab. Daher ist es bei der Entwicklung dieser Modelle entscheidend, diese nicht nur anhand von Metriken wie der erzielten Genauigkeit auf Testdaten zu evaluieren, sondern auch die Interpretierbarkeit dieser Modelle mit einzubeziehen. Interpretierbarkeit bedeutet in diesem Zusammenhang, zu verstehen, warum bestimmte Vorhersagen von einem Modell getroffen werden. Diese Gründe zu kennen, erhöht die Akzeptanz und das Vertrauen in Machine Learning-basierte Anwendungen. Im Vortrag werden zunächst die grundlegenden Konzepte des Explainable AI (XAI) Tools LIME ausführlich aufgezeigt. Anschließend werden konkrete Beispiele für XAI mit Regressions- (SHAP) und Klassifizierungsverfahren (LIME) in interaktiven Notebooks mit allen Teilnehmern ausgeführt.

Referenten

Dr. Thomas Zettl, Steadforce
Datum: 15.12.2020
Uhrzeit: 17:00 – 18:30 Uhr