KI & Technologie
Human Feedback (RLHF)
Human Feedback (RLHF) ist eine Trainingsmethode, bei der Menschen einer KI Rueckmeldung geben, damit sie bessere Antworten lernt.
Definition
Beim RLHF bewerten Menschen die Antworten einer KI und geben an, welche Antwort besser ist. Die KI lernt aus diesem Feedback und passt sich an. So wird sichergestellt, dass die KI hilfreichere, sicherere und verstaendlichere Antworten gibt.
💡 Beispiel
Ein Team bewertet KI-Antworten auf paedagogische Fragen. Die KI merkt sich, welche Erklaerungen als verstaendlicher eingestuft wurden, und nutzt diesen Stil kuenftig oefter.
Weiterführend
Zuletzt aktualisiert: 2. April 2026
