Klassenzimmer 2.0: Wie Google KI das Lernen beibringt
- 24. Feb.
- 3 Min. Lesezeit
Künstliche Intelligenz kann jetzt besser aus Feedback lernen – ähnlich wie Menschen in Gesprächen. Google DeepMind hat eine Methode entwickelt, die KI-Modelle deutlich flexibler macht. Das könnte besonders für Unternehmen interessant werden, die KI im Arbeitsalltag nutzen.
Das Problem: Künstliche Intelligenz „hört" nicht zu
Ein Mitarbeiter macht denselben Fehler, wieder und wieder, und das, obwohl Sie ihn längst korrigiert haben. Frustrierend. Genauso verhalten sich viele KI-Modelle.
Forscher von Google DeepMind haben getestet, wie gut führende Systeme wie GPT-5 oder Gemini 2.5 auf Korrekturen reagieren. Die Frage: Lernen diese Systeme aus Korrekturen? Das Ergebnis: kaum. Selbst nach mehreren Hinweisen machen sie dieselben Fehler.
Ein Beispiel aus der Studie: Eine KI sollte eine komplexe Matheaufgabe lösen. Nach dem ersten Versuch gab ein Lehrer-System einen präzisen Hinweis auf den Fehler. Die KI wiederholte daraufhin einfach ihre falsche Antwort – Wort für Wort. Sie nutzte nicht einmal ihre Denkfunktion, um den Hinweis zu verarbeiten.
Der Trick: Ein Lehrer, der die Lösung kennt – aber schweigt
Die Forscher entwickelten eine Methode namens RL²F (Reinforcement Learning with Language Feedback). Und so funktioniert's: Eine KI übt in Gesprächen mit einem Lehrer-System. Der Lehrer weiß die richtige Antwort, aber er sagt sie nicht. Stattdessen gibt er Tipps. Die Schüler-KI muss dann selbst auf die Lösung kommen.
Das Besondere: Beide Rollen nutzen dasselbe KI-Modell. Der Unterschied liegt nur im Zugang zur Information. Der Lehrer sieht die Musterlösung oder Testergebnisse, der Schüler nicht. Diese Asymmetrie erzeugt realistische Lernsituationen – ohne dass ein größeres, teureres Modell als Lehrer nötig wäre.
Klein schlägt Groß
Die neue Methode zeigt messbare Erfolge. Ein kleineres Gemini-Modell (Flash) erreichte nach dem Training fast die Leistung des deutlich größeren Pro-Modells. Bei schwierigen Matheaufgaben steigerte sich die Erfolgsquote von 35 % auf 60 % über drei Gesprächsrunden.
Noch interessanter: Die Fähigkeit überträgt sich auf andere Bereiche. Eine KI, die nur mit Matheaufgaben trainiert wurde, verbesserte sich anschließend auch bei:
Programmieraufgaben (LiveCodeBench): + 4 Prozentpunkte Genauigkeit
Logikrätseln (ARC-AGI): + 3 Prozentpunkte Genauigkeit
Spielen wie Poker oder Wordle: + 2 Prozentpunkte durchschnittlich
Die KI lernt also nicht nur, spezifische Aufgaben zu lösen. Sie entwickelt eine grundlegende Fähigkeit: flexibel auf neue Informationen zu reagieren und ihr Verhalten anzupassen.
KI wird alltagstauglich
Was bedeutet das für Unternehmen? Bisher gab es drei Wege, wenn KI nicht richtig funktionierte:
Neue Trainingsdaten sammeln und einspeisen (aufwändig)
Komplexe Prompts entwickeln (zeitraubend)
Auf größere, teurere Modelle umsteigen (kostspielig)
Mit anpassungsfähigeren Modellen wird KI praktischer. Ein Beispiel: Ein Mitarbeiter nutzt ein KI-System für Kundenanfragen. Die Künstliche Intelligenz macht einen Fehler. Der Mitarbeiter korrigiert sie im Gespräch. Die KI versteht den Hinweis und passt ihre nächste Antwort an, ohne dass die IT-Abteilung eingreifen muss.
Der Musterschüler korrigiert sich selbst
Die Forscher gingen noch einen Schritt weiter. Sie trainierten die KI nicht nur als Schüler, sondern auch als Lehrer. Das Modell lernte, eigene Fehler zu erkennen und sich selbst zu korrigieren.
Das Ergebnis: Die selbstkorrigierende KI übertraf sogar die Version mit externem Lehrer. Nach zehn Versuchen erreichte sie 75 % Genauigkeit – die Version mit Lehrer nur 65 %.
Dieser Mechanismus funktioniert, weil die KI während des Trainings beide Perspektiven kennenlernt: Sie übt, Hinweise zu geben UND Hinweise zu verarbeiten. Diese Doppelrolle macht sie flexibler.
Was das für die Zukunft bedeutet
Die Studie zeigt einen neuen Weg, wie KI-Systeme lernen können. Statt nur riesige Textmengen zu verarbeiten, entwickeln sie Fähigkeiten durch Interaktion. Das macht sie:
Anpassungsfähiger: Sie reagieren auf spezifische Situationen
Effizienter: Kleinere Modelle erreichen bessere Ergebnisse
Praktischer: Nutzer können KI im Gespräch verbessern
Für den Mittelstand bedeutet das: KI-Systeme werden zugänglicher. Unternehmen brauchen weniger technisches Wissen, um KI an ihre Bedürfnisse anzupassen. Die KI lernt im Arbeitsalltag dazu – durch die Rückmeldungen der Mitarbeiter.
Sie möchten erfahren, wie adaptive KI-Systeme Ihr Unternehmen unterstützen können? Bei vAudience beraten wir Sie zu praktischen KI-Lösungen für den Mittelstand. Vereinbaren Sie ein kostenloses Erstgespräch unter www.vaudience.ai
Glossar
Reinforcement Learning: Lernverfahren, bei dem eine KI durch Belohnungen und Bestrafungen lernt, Aufgaben zu lösen
RL²F: Reinforcement Learning with Language Feedback – Trainingsmethode, bei der KI aus Sprachfeedback lernt
Gemini: KI-Modellfamilie von Google (Flash = kleinere Version, Pro = größere Version)
Quelle
Google DeepMind: „Improving Interactive In-Context Learning from Natural Language Feedback“



