Künstliche Intelligenz – transparent und nachvollziehbar

Univ.Prof. Dr. Agata Ciabattoni
Univ.Prof. Dr. .Laura Kovacs
Univ. Prof. Matteo Maffei
Dr.techn. DI Martin Riener
Univ.Prof. Mag.rer.nat. Dr.rer.nat. Stefan Szeider

Vienna Center for Logic and Algorithms (VCLA) an der Technische Universität Wien

Fachgebiet: Informatik
Was ist es: Die künstliche Intelligenz hat in den letzten Jahren enorme Fortschritte gemacht. Ihre Methoden werden vielerorts angewandt mit Auswirkungen auf unser tägliches Leben und unsere Gesellschaft.

Diese rasante Entwicklung beruht zu einem maßgeblichen Teil darauf, dass die künstlichen Intelligenz Techniken des maschinellen Lernens (ML) einsetzt. Dabei werden grosse Datenmengen dazu verwendet, um ein sogenanntes Modell zu “lernen”. Mithilfe dieses Modells werden automatisiert Bilder erkannt, Texte übersetzt, Diagnosen erstellt und Entscheidungen getroffen.

Die ML-Modelle sind oft kompliziert und undurchsichtig. Es ist auch für Experten sehr schwer bis unmöglich nachzuvollziehen, wie es zu einer solchen automatisierten Entscheidung gekommen ist.
Daraus ergibt sich die wichtige Forschungsfrage, ML-Modelle transparent und nachvollziehbar zu machen (Stichwort Explainable AI”).

Nach einem allgemeinen Überblick werden im Kurzvortrag neue Forschungsfragen und erste Ergebnisse vorgestellt.

Diese Vorlesung wird vom Leiter des Vienna Center for Logic and Algorithms an der TU Wien und dem Leiter des Projekts ADA (Algorithmen Denken Anders) gehalten.