Zum Inhalt springen
Startseite » Was ist Explainable AI?

Was ist Explainable AI?

Explainable AI (XAI) bezeichnet Ansätze und Methoden, die darauf abzielen, die Entscheidungsfindung von künstlicher Intelligenz (KI) nachvollziehbar und transparent zu machen. Der Fokus liegt darauf, die oft als „Black Box“ betrachteten komplexen Modelle, wie tiefe neuronale Netze, besser zu verstehen und deren Entscheidungen zu erklären.

Explainable AI versucht genau diese „Black Box“ zu öffnen. Es geht darum, KI-Systeme so zu gestalten, dass Menschen verstehen können, warum eine bestimmte Entscheidung getroffen wurde. Anstatt nur ein Ergebnis zu liefern, erklärt das System den Entscheidungsprozess.

Beispiel

Eine KI sagt auf Basis von Wetterdaten, ob man heute draußen Sport treiben sollte oder nicht. Ohne XAI würde die KI vielleicht nur sagen: „Du solltest heute keinen Sport machen“. XAI macht die Entscheidung der KI nachvollziehbar, indem es die relevanten Faktoren, z.B. das Wetter, und deren Einfluss auf die Empfehlung erklärt. So versteht man, warum die KI diese Empfehlung ausspricht und kann ihr eher vertrauen.

Darstellung des Entscheidungsprozesses anhand eines Entscheidungsbaumes

Warum ist XAI wichtig?

  1. Vertrauen: Nutzer können einer KI eher vertrauen, wenn sie deren Entscheidungen nachvollziehen können.
  2. Compliance: Regulierungen wie die DSGVO fordern Transparenz bei automatisierten Entscheidungen.
  3. Fehlererkennung: Durch Erklärungen können Entwickler Fehler oder Verzerrungen in Modellen aufdecken.
  4. Ethik: Es hilft sicherzustellen, dass KI-Systeme fair und diskriminierungsfrei sind.

Anwendungsbereiche

  • Medizin: Erklärungen für Diagnosen durch KI.
  • Finanzwesen: Nachvollziehbarkeit bei Kreditentscheidungen.
  • Rechtswesen: Transparenz bei automatisierten Entscheidungen.

XAI trägt dazu bei, KI-Systeme nicht nur funktional, sondern auch ethisch, transparent und nachvollziehbar zu gestalten.