Warum erklärbare KI?

Viele moderne KI-Systeme, insbesondere neuronale Netze, agieren als „Black Box“. Sie liefern zwar beeindruckende Ergebnisse, lassen aber kaum erkennen, wie oder warum eine Entscheidung zustande kam. Für gesellschaftlich relevante Anwendungen – etwa in Medizin, Bildung, Justiz oder Technik – ist diese Intransparenz problematisch.

Konzepte zur Erklärbarkeit von KI

Wir verfolgen einen ganzheitlichen Ansatz, der sowohl technische als auch kognitionsbasierte Perspektiven einbezieht:

1. Logische und regelbasierte Modellierung

2. Physikalisch basierte Modellierung

Durch die Verknüpfung datenbasierter Modelle mit bekannten physikalischen oder theoretischen Strukturen lassen sich KI-Ergebnisse plausibel erklären. Dies schafft eine Brücke zwischen datengetriebener Intelligenz und dem klassischen wissenschaftlichen Weltverständnis.

3. Kognitive bzw. begabungstheoretische Modellierung

Die „kognitive bzw. begabungstheoretische Modellierung“ ist ein Ansatz zur Interpretation von Künstlicher Intelligenz (KI), bei dem die Funktionsweise und die Ergebnisse von KI-Systemen im Zusammenhang mit menschlichen Denkprozessen, Lernmechanismen und individuellen Begabungsstrukturen betrachtet werden.

4. Ähnlichkeitsbasierte Kognition des Menschen

Menschen lösen Probleme, indem sie neue Situationen mit prototypischen, bekannten Mustern vergleichen. Auch wenn KI in hochdimensionalen Merkmalsräumen arbeitet, kann durch geeignete Visualisierungen oder Reduktionen ein intuitives Verständnis ermöglicht werden.

Konzeptbild

Startseite