Zum Inhalt springen
Datenschutz & Recht

Content Moderation

Automatische oder manuelle Prüfung digitaler Inhalte auf unangemessenes Material – oft KI-gestützt.

Definition

Content Moderation bedeutet, dass Inhalte automatisch oder manuell auf ungeeignetes Material geprueft werden. KI-gesteuerte Moderation kann zum Beispiel gewalthaltige oder nicht altersgerechte Inhalte erkennen und filtern. Fuer dich ist das wichtig, wenn Kinder digitale Medien nutzen oder du Online-Plattformen in der Einrichtung einsetzt.

💡 Beispiel

Die Schulplattform filtert automatisch beleidigende Kommentare aus dem Klassenforum heraus.

Zuletzt aktualisiert: 2. April 2026