Zum Inhalt springen
KI & Technologie

Reinforcement Learning from Human Feedback (RLHF)

RLHF ist eine Trainingsmethode, bei der Menschen einer KI Rueckmeldung geben, damit sie bessere Antworten liefert.

Definition

Bei RLHF bewerten Menschen die Antworten einer KI und geben Feedback, welche Antworten hilfreich und welche unpassend sind. Die KI lernt daraus, in Zukunft bessere Ergebnisse zu liefern. Diese Methode ist ein wichtiger Grund, warum Chatbots wie ChatGPT so natuerlich antworten koennen.

💡 Beispiel

Wenn du merkst, dass ein KI-Chatbot auf paedagogische Fragen immer passendere Antworten gibt, liegt das daran, dass viele Menschen vorher Feedback zu den Antworten gegeben haben.

Zuletzt aktualisiert: 2. April 2026