Zum Inhalt springen
KI & Technologie

Interpretierbarkeit (KI)

Interpretierbarkeit bedeutet, dass du nachvollziehen kannst, wie eine KI zu ihrem Ergebnis gekommen ist.

Definition

Viele KI-Systeme arbeiten wie eine Black Box: Du siehst das Ergebnis, aber nicht den Weg dorthin. Interpretierbarkeit bedeutet, dass ein System dir erklären kann, warum es eine bestimmte Empfehlung gibt. Im Bildungsbereich ist das besonders wichtig, weil du pädagogische Entscheidungen gegenüber Eltern und Kollegen begründen musst.

💡 Beispiel

Ein KI-Tool empfiehlt für ein Kind besondere Sprachförderung. Weil das Tool interpretierbar ist, zeigt es dir genau, welche Beobachtungen zu dieser Empfehlung geführt haben.

Zuletzt aktualisiert: 2. April 2026