Auf der Suche nach erklärbarem und interpretierbarem Maschinellen Lernen mit Philosophie und Physik
Algorithmen des Maschinellen Lernens (ML) durchdringen zunehmend unseren Alltag und das öffentliche Leben. Sie treffen Vorhersagen, aber warum sie so und nicht anders entscheiden, bleibt oft schwer nachvollziehbar, sie sind gewissermaßen „opak“. In unserem Projekt wollen wir verstehen, wie diese Opakheit entsteht und wie man sie rückwirkend aufheben könnte. Dafür wollen wir anhand von Einsichten der Physik und anderer Theorien der Komplexität die Natur der (impliziten) Abstraktionen interpretieren, die ML an sich erzeugt. Unsere Arbeitshypothese ist, dass die Komplexität des ML und die Schwierigkeit, gewisse Komponenten des Lernprozesses zu verstehen, gemeinsam das Problem der Opakheit hervorbringen. In diesem Sinne fordert eine Lösung nicht einfach „mehr Verständnis”, oder „weniger Komplexität”, sondern eine sinngebende Komplexitätsreduktion. Damit meinen wir adäquate Abstraktionen und nicht triviale Vereinfachungen, die einen wohl fundierten Verständniszugang gewährleisten. In unserem Projekt werden wir Werkzeuge entwickeln, um die Komplexität der ML-Algorithmen auf neue Weise zu analysieren und sinngebende Reduktionen aus der Perspektive der Vielteilchenphysik und der Philosophie aufzufinden.