KI macht Schüler dümmer? Erkenntnisse aus Louisenlund
Beim KI-Symposium in Louisenlund wurde eine unbequeme Wahrheit ausgesprochen: Künstliche Intelligenz kann Lernen tatsächlich verschlechtern – wenn sie falsch eingesetzt wird. Doch genau darin liegt die entscheidende Chance. Nicht die Technologie ist das Problem, sondern die Didaktik. Der Mathematikdidaktiker Dr. Frederik Dilling zeigte in seinem Vortrag, warum Schulen jetzt vor einer Richtungsentscheidung stehen, die weit über den aktuellen Hype hinausgeht.
Dr. Frederik Dilling, Didaktiker der Mathematik an der Universität Giessen, begann mit einer grundsätzlichen Kritik am Bildungssystem. Forschung und schulische Praxis seien strukturell voneinander getrennt. Erkenntnisse aus der Didaktik würden zu selten systematisch im Unterricht umgesetzt. Sein Gegenentwurf: eine engere Verzahnung von Schule und Forschung, etwa durch Lehr- und Forschungsschulen, die Unterricht kontinuierlich weiterentwickeln. Künstliche Intelligenz könne diesen Prozess beschleunigen – nicht als Lösung, sondern als Auslöser neuer Fragen.
Denn KI hat längst eine Schwelle überschritten, die viele noch unterschätzen. Sie kann nicht nur Texte generieren, sondern auch komplexe mathematische Probleme vollständig lösen – inklusive Rechenweg und Erklärung. Damit übernimmt sie Fähigkeiten, die bislang als Kern schulischen Lernens galten. Genau hier liegt die Brisanz.
Dilling zog eine Parallele zur Einführung des Taschenrechners. Schon damals wurde erwartet, dass weniger gerechnet und mehr verstanden würde. Tatsächlich aber blieb der Unterricht weitgehend unverändert. Diese verpasste Transformation drohe sich nun zu wiederholen – nur mit deutlich größeren Konsequenzen.
Sein zentrales Konzept ist das „didaktische Gleichgewicht“. Je leistungsfähiger die Technologie, desto präziser muss ihre pädagogische Steuerung sein. Ohne diese Steuerung entstehen oberflächliche Lernprozesse, die lediglich Ergebnisse produzieren, aber kein Verständnis. In diesem Sinne ist die oft zugespitzte Aussage, KI mache „dumm“, nicht falsch – sie ist eine Frage der Nutzung.
Wie eine sinnvolle Nutzung aussehen kann, zeigte Dilling anhand konkreter Ansätze. Entscheidend ist die Rolle der Lernenden. Statt KI als „Ghostwriter“ zu verwenden, sollen Schülerinnen und Schüler Verantwortung für ihren Lernprozess übernehmen. Ziel ist nicht das fertige Ergebnis, sondern der Kompetenzaufbau.
Dilling unterscheidet dabei drei Nutzungsformen: Bei „AI-directed“ steuert die KI den Prozess – mit geringer Lernwirkung. Bei „AI-supported“ entsteht eine Zusammenarbeit. Die höchste Wirksamkeit erreicht „AI-empowered“, wenn der Mensch die Kontrolle behält und KI gezielt einsetzt.
Ein besonders praxisnaher Ansatz sind didaktische KI-Agenten. Diese werden gezielt konfiguriert und übernehmen unterschiedliche Rollen – etwa als sokratischer Tutor, kritischer Feedbackgeber oder bewusst widersprechender Diskussionspartner. KI wird damit nicht neutral genutzt, sondern aktiv gestaltet.
Die Konsequenzen sind weitreichend. Klassische Routinetätigkeiten verlieren an Bedeutung. Stattdessen rücken Reflexion, Kontextverständnis und der kompetente Umgang mit KI in den Mittelpunkt. Gleichzeitig wächst das Risiko, dass Lernende sich dem eigentlichen Lernprozess entziehen.
Dillings Fazit ist klar – und unbequem: KI verändert Bildung nicht automatisch zum Besseren. Ihr Potenzial entfaltet sich nur dann, wenn Schulen den Mut haben, Unterricht grundlegend neu zu denken. Dieser Ansatz soll nun in einem auf 3 Jahre angelegten Projekt in Louisenlund weiter verfolgt werden.
