KI & Technologie
Reinforcement Learning from Human Feedback (RLHF)
RLHF ist eine Trainingsmethode, bei der Menschen einer KI Rueckmeldung geben, damit sie bessere Antworten liefert.
Definition
Bei RLHF bewerten Menschen die Antworten einer KI und geben Feedback, welche Antworten hilfreich und welche unpassend sind. Die KI lernt daraus, in Zukunft bessere Ergebnisse zu liefern. Diese Methode ist ein wichtiger Grund, warum Chatbots wie ChatGPT so natuerlich antworten koennen.
💡 Beispiel
Wenn du merkst, dass ein KI-Chatbot auf paedagogische Fragen immer passendere Antworten gibt, liegt das daran, dass viele Menschen vorher Feedback zu den Antworten gegeben haben.
Weiterführend
Zuletzt aktualisiert: 2. April 2026
