Zum Inhalt springen
KI & Technologie

Tokenisierung

Das Aufteilen von Text in kleinere Einheiten (Tokens), die ein Sprachmodell verarbeiten kann.

Definition

Tokenisierung ist der Prozess, bei dem eine KI einen Text in kleinere Einheiten (Tokens) zerlegt, bevor sie ihn verarbeitet. Ein Token kann ein Wort, ein Wortteil oder ein Satzzeichen sein. Für dich ist das relevant, weil viele KI-Tools Textlängen in Tokens messen und es Obergrenzen gibt, wie viel Text auf einmal verarbeitet werden kann.

💡 Beispiel

Kinder probieren aus, wie ein Chatbot den Satz "Ich bin in der Schule" in einzelne Teile zerlegt.

Zuletzt aktualisiert: 3. April 2026