Du bereitest Stunden mit ChatGPT vor, schreibst Elternbriefe mit KI oder hast im Kollegium schon mal darüber gesprochen, welche Tools ihr eigentlich nutzt. Seit dem 2. Februar 2025 gibt es dafür einen verbindlichen Rahmen: Der EU AI Act Artikel 4 verpflichtet Schulen und Kitas als sogenannte Betreiber, sicherzustellen, dass ihre Mitarbeitenden KI-Systeme kompetent einsetzen. Wer das schon tut, hat den Kern dieser Regelung bereits erfüllt.

Was im Gesetz steht

Der Wortlaut von Artikel 4 lässt wenig Interpretationsspielraum:

„Die Anbieter und Betreiber von KI-Systemen ergreifen Maßnahmen, um nach besten Kräften sicherzustellen, dass ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen, wobei ihre technischen Kenntnisse, ihre Erfahrung, ihre Ausbildung und Schulung und der Kontext, in dem die KI-Systeme eingesetzt werden sollen, sowie die Personen oder Personengruppen, bei denen die KI-Systeme eingesetzt werden sollen, zu berücksichtigen sind.“

(Quelle: ai-act-law.eu/de/artikel/4)

Übersetzt: Wer KI einsetzt, muss dafür sorgen, dass sein Team versteht, was es da benutzt. Nicht abstrakt und allgemein, sondern angepasst an die eigene Rolle, das eigene Vorwissen, den eigenen Kontext. Wie viel genau „ausreichend“ ist, legt der AI Act bewusst nicht fest. Das entscheidet jede Einrichtung selbst.

KI-Kompetenz im Sinne des Gesetzes (Artikel 3 Absatz 56) heißt: KI-Systeme sachkundig einsetzen können, Chancen und Risiken realistisch einschätzen, mögliche Schäden erkennen. Kein Expertenwissen, aber mehr als „ich hab mal ChatGPT ausprobiert“.

Wichtig für den Schulalltag: Die bloße Bereitstellung von Informationen über KI-Tools reicht laut dem AI Office der EU-Kommission nicht aus, um Artikel 4 zu erfüllen. Gefordert ist ein echtes Grundverständnis, keine Linkliste im Intranet.

Welche Risikostufe betrifft dich?

Der AI Act unterscheidet KI-Systeme nach ihrer potenziellen Gefährlichkeit. Das ist relevant, weil der Kompetenz-Bedarf von Risikoklasse und Rolle abhängt:

Die vier Risikostufen im Bildungsbereich

RisikostufeBeispiele im BildungsbereichWas gilt
VerbotenEmotionserkennung im Unterricht, manipulative KIEinsatz vollständig verboten seit Februar 2025
Hohes RisikoAutomatische Leistungsbewertung, KI-gestützte SchulplatzvergabeStrenge Auflagen: Dokumentation, menschliche Kontrolle, Risikoprüfung
Begrenztes RisikoKI-Chatbots, generierte Texte und BilderTransparenzpflicht: kennzeichnen, dass KI beteiligt ist
Minimales RisikoRechtschreibhilfe, automatische Übersetzung, SpamfilterKeine besonderen Auflagen

Für den Alltag der meisten Lehrkräfte und Erzieher gilt: ChatGPT, fobizz oder ähnliche Tools zur Unterrichtsvorbereitung liegen im unteren Bereich dieser Skala. Unkritisch, solange du transparent damit umgehst und keine KI-Inhalte ungeprüft weitergibst.

Was das konkret bedeutet

Elternbriefe mit ChatGPT schreiben fällt unter begrenztes Risiko. Eine formale Kennzeichnungspflicht besteht nicht in jedem Fall, aber der Text gehört gelesen, bevor er rausgeht.

Wer KI zur Beurteilung von Schülerleistungen einsetzen will, betritt hohes Risiko-Terrain. Ohne klare Dokumentation und menschliche Kontrolle wird das rechtlich heikel, und pädagogisch sowieso.

Ein Übersetzungstool in der GBS-Gruppe oder Nachmittagsbetreuung? Minimales Risiko, keine Sonderauflagen. Trotzdem: Zeig den Kindern, was das Tool macht. KI-Kompetenz hört nicht bei Erwachsenen auf.

Passende KI-Tools für den pädagogischen Einsatz findest du auf unserer Tool-Seite, eingeordnet nach Einsatzbereich.

Was bei Nichteinhaltung gilt

Verstöße gegen Artikel 4 werden aktuell noch nicht aktiv sanktioniert. Eine eigene Strafandrohung gibt es nicht, und auch keine Pflicht, KI-Kompetenzen zu messen oder zu zertifizieren. Die nationalen Marktüberwachungsbehörden nehmen ihre Arbeit offiziell ab dem 2. August 2026 auf.

Was dennoch gilt: Artikel 99 Absatz 7 des AI Act sieht vor, dass bei der Festsetzung von Bußgeldern für andere Verstöße berücksichtigt wird, welche Maßnahmen eine Einrichtung ergriffen hat, um Schäden zu begrenzen. Wer nachweislich gar nichts getan hat, steht dann schlechter da. Deshalb empfiehlt das AI Office der EU-Kommission, durchgeführte Maßnahmen zu dokumentieren, auch wenn das keine formale Pflicht ist.

Digital Omnibus: Die EU-Kommission hat Ende 2025 einen Vorschlag vorgelegt, Artikel 4 abzuschwächen und die Förderung von KI-Kompetenz stärker als staatliche Aufgabe zu definieren. Das Verfahren ist noch offen, ein Abschluss vor Sommer 2026 wird erwartet. Was genau bleibt, was sich ändert, ist zum heutigen Stand unklar.

Was Datenschutz angeht, gilt unabhängig davon die DSGVO: keine Schülernamen, keine persönlichen Daten in cloudbasierte KI-Dienste, die das nicht explizit abdecken.

Was jetzt sinnvoll ist

Ein Pflichtprogramm gibt es nicht. Aber ein ehrliches Gespräch im Kollegium ist ein guter Anfang: Welche Tools nutzen wir? Was verstehen wir davon? Welche Risikostufe haben sie? Und was tun wir, wenn jemand neu ins Team kommt?

Wer das strukturiert angehen möchte, findet in unserer Fortbildung praxisnahe Einstiegsmöglichkeiten, die KI-Kompetenz aufbauen, ohne Vorwissen vorauszusetzen.