Sollte ich als Lehrkraft den KI-Einsatz z.B. bei Feedback oder Unterrichtsplanung transparent machen?
Es kristallisiert sich bei mir in Beratungsprozessen zunehmend ein Ungleichgewicht bei der KI-Nutzung (KI hier als Synonym für Sprachmodelle) von Lehrkräften und Schüler:innen heraus.
Weil Schüler:innen KI nutzen, gibt es ein großes Bedürfnis nach technischen Lösungen, wie man das herausfinden kann, denn das wäre ja Betrug, weil man die Leistung eines technischen Systems als die eigene ausgibt.
Wenn Lehrkräfte hingegen KI-Systeme zum Erstellen von Feedback oder Unterrichtsvorbereitungen nutzen, dann ist das eine selbstverständliche Nutzung eines Werkzeugs zur Entlastung im zunehmend belastenderen Beruf. Weil es eben nur ein Werkzeug wie z.B. die automatische Rechtschreibkorrektur oder ein Wörterbuch ist, muss das nicht transparent gemacht werden.
Das riecht oberflächlich betrachtet natürlich ziemlich streng nach Adultismus: Erwachsene Lehrkräfte „dürfen“ etwas, was Schüler:innen nicht dürfen. Zusätzliche Legitimation erhält das dadurch, dass KI-Werkzeuge explizit mit diesen Möglichkeiten für Lehrkräfte beworben und durch manche Kultusministerien selbst promotet werden. Wenn selbst der Dienstherr mir diese Tür öffnet, dann ist diese Art der Werkzeugnutzung in der Wahrnehmung von Lehrkräften natürlich auch legitim.
Die häufige Kritik an mich dabei ist der Vorwurf, letztlich innovationsfeindlich zu sein. Ich versuche im Verlauf dieses Textes zu erklären, warum es wichtig ist, die Frage zuzulassen, ob man als Lehrkraft den Einsatz von KI Schüler:innen gegenüber transparent machen sollte. Die Entscheidung muss jeder selbst treffen.
Transparenz entwertet die Leistung der Lehrkraft gegenüber Schüler:innen
Gedankenexperiment: Ich habe mich verliebt und möchte das zum Ausdruck bringen. Ich nutze ein Sprachmodell, um ein Treffen mit dem angebeteten Menschen über einen Messenger anzubahnen. Welche Aussichten auf ein Treffen habe ich, wenn ich das im Chatverlauf bereits transparent mache?
Ich denke: Keine.
Intutitiv wird mein Gegenüber wahrnehmen, dass er/sie mir es nicht einmal wert war, dass ich mich als Mensch in den ersten Kontakt einbringe.
Das spüre ich als Nutzer der Sprachmodelle natürlich ebenfalls intuitiv. Ich legitimiere den Einsatz aber vielleicht dadurch vor mir selbst, dass ich zwar schlecht schreiben, mich aber real gut präsentieren kann.
Ohne den Einsatz der KI würde ich nicht einmal die Chance auf ein Treffen bekommen!
Wenn ich diese Transparenz als Lehrkraft gegenüber Schüler:innen in Feedbackprozessen herstelle, könnten die Wahrnehmungen ähnlich sein: Vielleicht werde ich in meiner beruflichen Kompetenz anders wahrgenommen, vielleicht empfinden Schüler:innen sich durch automatisierte Feedbackprozesse weniger wertgeschätzt. Ich glaube, dass das der Grund für die Verweigerung von Transparenz in diesem Bereich ist.
Aber ohne den Einsatz von KI würden die Schüler:innen angesichts meiner eigenen Belastung nicht einmal die Chance auf ein individualisiertes Feedback bekommen!
Durch KI-Feedback stabilisieren wir ein reformbedürftiges System
Der Ausweg besteht dann darin, von vornherein ein System zu nutzen, bei dem die Präsenz der KI komplett transparent ist – da gibt es ja das ein oder andere am Markt.
Wir stellen aber fest, dass wir im bestehenden System nicht in der Lage sind, Schüler:innen angemessen und individualisiert Feedback zu geben. Um das zu können, lagern wir das Feedback an technische Systeme aus, lassen uns davon unterstützen oder geben uns den Versprechen hin, dass das irgendwann möglich sein wird.
Aber die eigentliche Ursache liegt doch im System – vor allem darin, dass „Kompetenznachweise“ grundsätzlich an Produkten geführt werden, deren Erstellung für KI-Systeme mittlerweile ein Leichtes ist.
Ich glaube, dass Kompetenzen innerhalb von Prozessen entstehen (und ich glaube daran, dass der Prozessbegriff den Kompetenzbegriff bald ablösen wird). Indem (operationalisiert) ich einen Text schreibe, lerne ich einen Text zu schreiben. Indem ich eine Programmieraufgabe löse, lerne ich zu programmieren. Indem ich Fingerläufe auf der Gitarre übe, lerne ich ein Musikstück zu spielen.
Aber das ist Stress. Für mich ist es heute totaler Stress, mir einfache Tabulaturen von Eva Cassidy draufzuschaffen und ich schaue dann lieber YT-Videos, die mir das zeigen. Aber ich kann bis heute keinen Song von ihr spielen. Wenn aber mein Kollege, der Gitarre studiert hat, meine Technik anschaut müde lächelnd sagt: „Mh, das Problem dabei ist oft … Versuche doch mal …“ und vielleicht noch an meiner Haltung herumbiegt – dann geht es voran.
Jetzt stellen wir uns ein Bildungssystem vor, das Schüler:innen in vergleichbaren Prozessen unterstützt, sie an Klippen vorbeiführt, an denen schon viele Menschen vorher vorbei mussten. Dann entstehen andere Produkte. Welche Rolle hätte KI in einem solchen System? Welche Rolle hätten Produkte?
Indem Menschen KI nutzen, überspringen sie Prozesse. Menschen – also Schüler:innen und Lehrkräfte.
KI-Feedback ist pseudo-individuell
KIs sind statistische Modelle. Sie bilden statistische Wahrscheinlichkeiten ab. Eine KI „weiß“ nicht, dass Martha seit drei Jahren in Deutschland lebt und daran scheitert, dass ihr ihr Anspruch im Weg steht, möglichst hochtrabendes Deutsch zu schreiben. Eine KI „weiß“ nicht einmal, dass sie gerade einen Nonsense-Text erhalten hat und gibt brav und promptkonform statistisches Feedback zu einem Text, den ich maximal angelesen hätte.
Ich habe in meinem Feedback zu Martha eine Passage aus ihrem Text genommen und diese in eine Form übertragen, von der ich denke, dass Martha sie sprachlich beherrschen könnte.
Ich habe Peter geschrieben, dass sich die fehlende Struktur und assoziative Anlage seines Textes sprachlich u.a. in der häufigen Verwendung der Konjunktion „und“ widerspiegelt und(!) ihm ins „Aufgabenbuch“ drei seiner Sätze zum Umformulieren geschrieben.
Ich habe Luca meine Hochachtung für seinen Mut mitgeteilt, dass er sich in der Klausur etwas mit eigenem Stil getraut hat, obwohl das nicht immer der Aufgabe gerecht wurde.
Ich weiß im Gegensatz zur KI nämlich etwas über Martha, Peter und Luca. Und ich habe eine Vorstellung davon, was ich für eigenen Stil halte. Diese Vorstellung habe ich entwickelt, weil ich über jahrelange Korrekturerfahrung verfüge, die mir u.a. sagt, dass es Sinn macht, gezielt Entwicklungspotentiale in einem Feedback zu fokussieren, Schwerpunkte für Feedback zu setzen und nicht wahllos einen Text rot zu malen.
KI ist für mich in diesem Kontext maximal für Worthülsen und „Sprachfüllmaterial“ nutzbar – wie es der Dienstherr zunehmend verlangt (s.u.). Aber Martha, Peter und Luca würden das wahrscheinlich gar nicht bemerken, wenn ich für Feedback einfach nur KI-Ausgaben nutze und modifiziere, so wie ich nicht bemerken würde, wenn sie ihrerseits damit ihre Texte schrieben.
Aber hätte ich das mein Leben lang gemacht, sähe mein Lernprozess bezüglich des Feedbacks an Schüler:innen deutlich anders aus. Ich wäre vielleicht vergleichbar (in)effizient wie heute durch die technische Unterstützung, aber bei Weitem nicht so individualisiert.
Indem ich mich der Frage stelle, ob ich nicht den Einsatz von KI für Schüler:innenfeedback transparent machen sollte …
KI für entseelte Texte
In manchen Kultusministerien sollen Juristen sitzen, die den Rahmen für Reformen vorgeben und Recht nicht entwickeln (wollen). Aus solchen Kreisen sind m.E. in den letzten Jahren Vorgaben gekommen für alle Art von Konzepten, Berichten, Gutachten und dezidierten Korrekturvorschriften (z.B. nicht die notenäquivalenten Wörter wie „sehr gut“ usw. in Randbemerkungen zu nutzen). Der Hintergrund ist die Justitiabilität, das sich „Sich-nicht-angreifbar-machen“ im Falle von Auseinandersetzungen. Man möchte im Rahmen seiner Fürsorgepflicht die Lehrkräfte vor unangenehmen Situationen bewahren. Und ich glaube, dass dahinter letztlich tatsächlich eine gute Absicht mit etwas blöden Konsequenzen in der Fläche steht.
Diese ganzen Texte, die dabei entstehen, sind durch diese Vorgaben entseelt. Sie haben eine begrenzte Legitimation in Edge-Cases, werden aber zu 99% nie wieder gelesen oder kontrolliert. Sie müssen halt nur da sein. Solche Texte kann KI gut. Sehr gut sogar. Weil sie so oft wischiwaschi und sehr schematisch sind.
Mich juckt es in den Fingern, im nächsten Jahr, alle meine Abiturgutachten mit einem Transparenzhinweis zu versehen, dass zur Erstellung KI genutzt worden ist. Ich bin
- gespannt, was dann und ob etwas los ist
- wie nach Wegnahme des Hinweises überprüft werden soll, dass das Gutachten jetzt ohne KI erstellt worden ist (Wahrscheinlich müsste ich das schriftlich erklären und dann wäre das gut …)
Dass einige Dienstherrn die Unterstützung durch KI bei Korrekturen und Feedback aktiv bewerben, sich aber der Frage nach der Transparenz oft gar nicht, bzw. für mich nicht sichtbar stellen, ist doch ziemlich bezeichnend, oder?
Logisch wäre eine Dienstanweisung, das Zeug zu nutzen, aber das um Himmelswillen nicht transparent zu machen. Dann würde es nämlich wahrscheinlich spannend hinsichtlich der Justitiabilität.
