Zum Inhalt springen
Datenschutz & Recht

Fairness-Metriken

Fairness-Metriken messen, ob ein KI-System verschiedene Gruppen von Menschen gleich behandelt oder ob es Benachteiligungen gibt.

Definition

Fairness-Metriken sind Massstäbe, mit denen Du überprüfen kannst, ob eine KI fair arbeitet. Sie messen zum Beispiel, ob Kinder mit unterschiedlichem Hintergrund gleich bewertet werden. Es gibt verschiedene Definitionen von Fairness, und nicht alle können gleichzeitig erfüllt werden. Für Dich ist wichtig zu wissen, dass KI nicht automatisch gerecht ist und regelmässig geprüft werden muss.

💡 Beispiel

Du prüfst, ob eine Lern-App Kindern mit nichtdeutschen Namen genauso gute Empfehlungen gibt wie allen anderen Kindern.

Zuletzt aktualisiert: 2. April 2026