Datenschutz & Recht
Fairness-Metriken
Fairness-Metriken messen, ob ein KI-System verschiedene Gruppen von Menschen gleich behandelt oder ob es Benachteiligungen gibt.
Definition
Fairness-Metriken sind Massstäbe, mit denen Du überprüfen kannst, ob eine KI fair arbeitet. Sie messen zum Beispiel, ob Kinder mit unterschiedlichem Hintergrund gleich bewertet werden. Es gibt verschiedene Definitionen von Fairness, und nicht alle können gleichzeitig erfüllt werden. Für Dich ist wichtig zu wissen, dass KI nicht automatisch gerecht ist und regelmässig geprüft werden muss.
💡 Beispiel
Du prüfst, ob eine Lern-App Kindern mit nichtdeutschen Namen genauso gute Empfehlungen gibt wie allen anderen Kindern.
Weiterführend
Zuletzt aktualisiert: 2. April 2026
