Agentic AI: Wenn KI selbstständig Kurse absolviert

Ein KI-Agent durchläuft einen Onlinekurs, bearbeitet Aufgaben, besteht Tests, ganz ohne menschliches Zutun. Dabei kann sich der/die Lernende zurücklehnen und erstmal einen Kaffee trinken. Kaffee ausgetrunken – alle Aufgaben und Test erledigt. Klingt ein bisschen wie Science Fiction, ist aber heute schon möglich. Die Frage ist nicht mehr ob das möglich ist, sondern: Was machen wir jetzt damit im Bildungsbereich? Wie kann Lernen sichergestellt, angeregt werden?
Was ist neu?
KI hat nicht nur Antworten – sie handelt selbst.
Dass Studierende KI nutzen, um Aufgaben zu lösen, ist längst bekannt. Schon mit klassischen Large Language Models (LLMs) wie ChatGPT konnten sie sich beim Schreiben von Essays, beim Lösen von Aufgaben oder beim Formulieren von Antworten unterstützen lassen.
Neu ist jedoch der sogenannte Agentenmodus:
KI-Modelle handeln eigenständig: Sie klicken sich durch Webseiten, loggen sich in Lernplattformen ein, recherchieren Quellen, kopieren Aufgaben, generieren Antworten und laden sie hoch. Ohne zusätzlichen Prompt. Ohne Aufsicht. Ohne menschlichen Zwischenschritt.
Agentic AI im Praxistext in einer Articulate Rise Umgebung
Im aktuellen Video der ResearchShorts-Reihe wird demonstriert, wie ein ChatGPT-Agent selbstständig in einem Onlinekurs agiert:
- Er navigiert durch eine öffentlich Articulate Rise Umgebung
- liest Inhalte
- bearbeitet Aufgaben
- gibt Rückmeldungen und das alles komplett automatisiert
In kurzer Zeit erledigt die KI das, was Studierende sonst Stunden kostet.
Erste Reaktion: „Was können wir dagegen tun?“
Viele Lehrende und Hochschulen reagieren auf solche Szenarien mit dem Prinzip „Friction by Design“, also dem gezielten Einbau von Hürden, die automatisiertes Verhalten erschweren sollen. Dazu gehören:
- Zeitversetzte Freischaltungen von Kursinhalten
- Pflicht zu Peer-Review oder Gruppenarbeit
- Reflexionsaufgaben mit persönlichem Bezug
- Abgabeformate wie Audio, Video oder Handschrift
- Analyse von Aktivitätsverläufen und Einreichmustern
Wenn „Friction“ keine echte Lösung ist…
Die Realität ist: Agentic AI kann viele dieser Hürden simulieren oder umgehen.
- Zeitversetzter Kurszugang? → Der Agent loggt sich täglich ein.
- Peer-Reviews? → Der Agent übernimmt zwei Rollen.
- Handschrift? → Es existieren Tools, die KI-generierte Inhalte in echte Handschrift überführen.
- Persönliche Reflexion? → Sprachlich nachgeahmt – und oft ausreichend überzeugend.
„Friction by Design“ verlangsamt – aber verhindert nicht. Der wissenschaftliche Diskurs rund um positive Friction (z. B. Chen & Schmidt, 2024) macht deutlich: Reibung kann didaktisch sinnvoll sein, etwa wenn sie Reflexion anregt oder über Komplexität zum Nachdenken führt. Wird Friction jedoch rein als Hürde eingesetzt, lässt sie sich von Agenten imitieren, umgehen oder neutralisieren.
Friction in der KI selbst?
Ein nächster Denk-Schritt liegt auf der Hand: Warum bauen wir Friktion nicht direkt in die KI ein – statt sie nur um die KI herum zu gestalten? Das Konzept sogenannter Reflective Agents oder Embedded Friction wird zunehmend erforscht. Die Idee: KI soll nicht nur handeln. Sie soll zum Innehalten, Nachfragen, Zögern, Reflektieren anregen.
Konkret könnte das bedeuten:
- Die KI stellt Rückfragen („Möchtest du das automatisiert lösen oder selbst bearbeiten?“)
- Sie erzeugt Perspektivwechsel („Wie würde jemand mit einer anderen Meinung argumentieren?“)
- Sie bricht Routinen („Diese Lösung wirkt sehr glatt. Wollen wir sie gemeinsam prüfen?“)
In der oben genannten Studie von Chen & Schmidt (2024) wird diskutiert, wie Friction als aktivierendes Element in KI-Agenten integriert werden kann: Nicht als Blockade, sondern als Anreiz. Die Idee: Eine gute KI bremst sich selbst. Nicht, um zu behindern, sondern um das Reflektieren, Lernen zu fördern. Denn: Technische Friktion wird ohne soziale oder motivationale Verankerung tendenziell unterlaufen. Das zeigt etwa das Beispiel aus einem anderen KI-Anwendungsbereich, der Autosteer-Warnungen in Teslas: Fahrer:innen müssen regelmäßig das Lenkrad berühren, sonst ertönt eine Warnung. Ziel dabei ist: Aufmerksamkeit, Sicherheit, kein blindes Vertrauen in den Autopilot. ABER: Nutzer:innen haben das Friction-Design aktiv umgangen, etwa durch Gewichte am Lenkrad. (Siddiqui, 2023)
Und jetzt?
Agentic AI wird nicht verschwinden. Im Gegenteil: Sie wird leistungsfähiger, zugänglicher und alltäglicher. Die entscheidende Frage ist also nicht mehr, wie wir sie aufhalten können, sondern:
Wie gestalten wir Bildung so, dass sie menschliches Lernen fördert, auch wenn KI in der Lage ist, Lernprozesse zu simulieren oder zu übernehmen?
„Friction by Design“ mag kurzfristig helfen, aber langfristig braucht es mehr:
- Didaktisches Umdenken, das Reflexion und Transfer ins Zentrum stellt
- KI-Modelle, die selbst zum Nachdenken anregen
- Lehr- und Lernkulturen, die nicht nur Ergebnisse bewerten, sondern Denkprozesse sichtbar machen
Kernaussage: Friction ist wirksam, wenn sie pädagogisch sinnvoll eingebettet ist und idealerweise von der KI selbst mitgetragen wird. Reine Sperren helfen wenig, es braucht eine soziale und motivationale Grundlage.
Vielleicht ist die Agentic AI nicht unser größter Gegner, sondern ein Katalysator, der uns zwingt, neu zu fragen, was Lernen eigentlich bedeuten soll. Und vielleicht bedeutet das ein Ende von langweiligen und wenig effektiven Klick-Schulungen.
Frage an euch
Wie nutzt ihr den Friction-Ansatz in euren Lernumgebungen? Was hat bisher gut funktioniert und wo stoßt ihr an Grenzen? Ich freue mich auf eure Erfahrungen und Perspektiven in den Kommentaren!