News

BSI: Erkenntnisse zu Reproduzierbarkeit und Erklärbarkeit (XAI) in der Künstlichen Intelligenz

Die Erklärbarkeit Künstlicher Intelligenz ist ein wesentlicher Faktor, um Vertrauen in KI-Anwendungen zu schaffen. Die Reproduzierbarkeit der Ergebnisse mehrschichtiger, maschineller Lernprozesse ist dafür eine Voraussetzung. In seiner Arbeit "Deep Learning Reproducibility and Explainable AI (XAI)" untersucht das Bundesamt für Sicherheit in der Informationstechnik (BSI) die auf dem Weg zur Reproduzierbarkeit auftretenden Probleme und stellt einen möglichen Umgang mit einigen dieser Probleme dar. Das Dokument liegt in englischer Sprache vor und richtet sich an Fachpersonal und Interessierte aus dem Bereich "Künstliche Intelligenz".

 

 

Kompetenzzentrum Künstliche Intelligenz
Existierende Standards für klassische IT-Systeme lassen sich aufgrund der besonderen Struktur moderner KI-Systeme nicht unmittelbar übertragen. So besteht eine weitere Schwierigkeit für VerbraucherInnen, Unternehmen oder Behörden darin, die Sicherheit von KI-Systemen im jeweiligen Anwendungsfall zu bewerten. Um geeignete Sicherheitsnachweise für eine Bewertbarkeit ausstellen zu können, benötigen qualifizierte Prüfer hinreichend geeignete und verlässliche Prüfkriterien, -methodologien und -werkzeuge.

Die Erklärbarkeit Künstlicher Intelligenz untersucht das BSI ebenfalls. Thema einer Veröffentlichung von Anfang 2022 ist die Machbarkeit der Erstellung deterministischer, robuster Modelle des Deep Lerning (DL) und die Realisierbarkeit deterministisch erklärbarer Künstlicher Intelligenz (XAI) in der Praxis. Reproduzierbarkeit trägt als Voraussetzung zur Herleitung von Kausalität aus DL-Modellergebnissen zur Schaffung von Vertrauen in KI bei. Die englischsprachige Arbeit untersucht die auf dem Weg zur Reproduzierbarkeit zu lösenden Probleme und den möglichen Umgang mit einigen davon.

Weiterführende Links

www.bsi.bund.de 
Deep Learning Reproducibility and Explainable AI (XAI)
Künstliche Intelligenz