Zum Inhalt springen
KI & Technologie

Adversarial Attack

Ein Adversarial Attack ist ein gezielter Angriff, der eine KI durch manipulierte Daten zu Fehlern bringt.

Definition

Bei einem Adversarial Attack werden Eingabedaten absichtlich so veraendert, dass eine KI falsche Ergebnisse liefert. Die Veraenderungen sind fuer Menschen oft unsichtbar. Fuer Dich ist wichtig zu wissen, dass KI-Systeme nicht unfehlbar sind und durch solche Angriffe getaeuscht werden koennen.

💡 Beispiel

Ein Bild von einer Katze wird minimal veraendert, sodass die KI es ploetzlich als Hund erkennt. In der Kita waere das relevant, wenn eine Bilder-KI unerwartete Ergebnisse liefert.

Zuletzt aktualisiert: 2. April 2026