EXPLAIN - EXPLanatory interactive Artificial intelligence for INdustry

Um die potenziellen Vorteile der künstlichen Intelligenz (KI) in industriellen Anwendungen zu nutzen, müssen Fachleute und Endnutzer einen Einblick in die interne Verarbeitung von Modellen des maschinellen Lernens (ML) erhalten. Dies ist der Schwerpunkt der Forschung zu erklärbarer, künstlicher Intelligenz (Explainable Artificial Intelligence, XAI), die in den letzten Jahren viel Aufmerksamkeit erhalten hat. Die Bedürfnisse und Eigenschaften der Nutzer und ihr Arbeitskontext sind bei industriellen Anwendungen sehr unterschiedlich. Auch diese Aspekte müssen bei der Entwicklung industrieller KI-Systeme berücksichtigt werden. Daher ist es unerlässlich, verschiedene industrielle Nutzer, Anwendungsfälle und Daten zu berücksichtigen, um ein besseres Verständnis für den Kontext und die Anforderungen an geeignete KI-Lösungen zu entwickeln.

Die erfolgreiche Umsetzung dieser Idee erfordert eine enge Zusammenarbeit zwischen Anbietern von KI-Anwendungsfällen, KI-Anbietern und Forschungsakteuren aus den Bereichen maschinelles Lernen, XAI, Softwareentwicklung, Benutzererfahrung und menschliche Faktoren. Insbesondere zielt das EXPLAIN-Projekt darauf ab, einen durchgängigen ML-Lebenszyklus zu realisieren, der interaktiv und für Branchenexperten erklärbar ist. Dies erfordert eine intensive Einbindung von Fachleuten. Die Entwicklung dieses Einsatzes erfordert auch fortschrittliche MLOPS-Ansätze, die sich direkt auf die Unterstützung und Einbindung erklärbarer KI konzentrieren.

Zur Umsetzung gehören

  • die Entwicklung eines Ende-zu-Ende-Systems mit einer Daten- und MLOps-Infrastruktur unter Berücksichtigung des Bedarfs an Erklärungsmethoden
  • das Nutzen von Erklärungen für Modelltests, Überwachung, Verbesserungen, und Audits
  • die Modellierung und Automatisierung von MLOps Prozessen
  • die Integration von Modellen in diese Prozesse
  • die Automatisierung dieser Prozesse
  • das Testen und Evaluieren des Ende-zu-Ende Systems anhand von Metriken

Darüber hinaus werden im Zuge des Projektes in verschiedensten Arbeiten Anforderungen an die Erklärbarkeit ermittelt, sowie konventionelle maschinelle Lerntechniken, Erklärbarkeitskomponenten, und ein Feedbacksystem entwickelt. Die jeweiligen Bestandteile werden in der Praxis evaluiert.

Die Arbeitsgruppe Software Systems Engineering (SSE) um Prof. Dr. Klaus Schmid arbeitet unter Anderem in den Projekten IIP-Ecosphere und HAISEM-Lab bereits an Methoden und Techniken zur Unterstützung der effizienten Entwicklung von qualitativer Software mit künstlicher Intelligenz.

Innerhalb des Projekts wird die Arbeitsgruppe ihre Expertise im Software Engineering für KI-Systeme einbringen und sich auf den Bereich MLOPS für XAI im Kontext von Industrie 4.0 konzentrieren.  

Laufzeit: 3 Jahre

Kontakt: Prof. Dr. Klaus Schmid

 

Das EXPLAIN-Projekt wird finanziert durch Grant 01IS22030E durch das BMBF.

Publikationen

Abt. Software Systems Engineering