KI in der Schule? Ist sie nun einmal da und muss man sich deswegen damit beschäftigen?

Es ver­geht kein Tag auf Social Media mit neu­en, coo­len Tipps zur Nut­zung von KI im Unter­richt. Ich zie­he seit drei Jah­ren mit einem Vor­trag zu KI durch alle mög­li­chen Grup­pen und Gre­mi­en, der sich mehr und mehr zu einer sehr kri­ti­schen Sicht auf das The­ma gewan­delt hat.

1. KI-Anwendungen, die Sprache generieren, verhindern Lernprozesse

Ver­schie­de­ne For­scher und Exper­ten wei­sen auf gra­vie­ren­de Män­gel in Sprach­mo­del­len hin, die das Rück­grat vie­ler Ange­bo­te für den Bil­dungs­be­reich bil­den. Auch die Aus­wir­kun­gen auf Lern­pro­zes­se wer­den zuneh­men kri­tisch beschrie­ben. Bezeich­nen­der­wei­se kommt die dif­fe­ren­zier­tes­te Kri­tik dabei nahe­zu immer von Men­schen mit infor­ma­ti­schem Hin­ter­grund. Ver­fech­ter der Nut­zung von Sprach­mo­del­len im Unter­richts­kon­text hal­ten stets dage­gen, dass es dabei immer auf die Art der jewei­li­gen Nut­zung ankommt. Davon bin ich nicht überzeugt.

Exem­pla­risch ver­wei­se ich auf eine aktu­el­le Stu­die von Rai­ner Mühl­hoff und Mar­te Hen­ningsen, die sich ein Fobizz-Tool zur auto­ma­ti­schen Bewer­tung von Haus­auf­ga­ben genau­er ange­schaut haben. Von die­sen Werk­zeu­gen bzw. Ange­bo­ten gibt es meh­re­re auf dem deut­schen Markt, sogar sol­che, die Grün­der­prei­se erhal­ten haben. Ihnen gemein ist, dass sie sich auf die glei­che infor­ma­ti­sche Tech­no­lo­gie stüt­zen und sich expli­zit an Lehr­kräf­te rich­ten. Die Daten­ba­sis der Stu­die ist ver­hält­nis­mä­ßig gering – das ist lei­der im Bil­dungs­be­reich bei vie­len Stu­di­en so. Hier eini­ge Aus­zü­ge aus den Ergebnissen:

  1. Sowohl die vor­ge­schla­ge­ne Gesamt­no­te als auch das qua­li­ta­ti­ve Feed­back vari­ier­ten erheb­lich zwi­schen ver­schie­de­nen Bewer­tungs­durch­läu­fen der­sel­ben Abga­be. Die­se Vola­ti­li­tät stellt ein erns­tes Pro­blem dar, da Lehr­kräf­te, die sich auf das Tool ver­las­sen, unbe­merkt qua­si “aus­ge­wür­fel­te” und poten­zi­ell unge­rech­te Noten und Rück­mel­dun­gen ver­ge­ben könnten.

  2. Selbst mit voll­stän­di­ger Umset­zung der Ver­bes­se­rungs­vor­schlä­ge war es nicht mög­lich, eine “per­fek­te” – d.h. nicht mehr bean­stan­de­te – Ein­rei­chung vor­zu­le­gen. Eine nahe­zu per­fek­te Bewer­tung gelang nur durch Über­ar­bei­tung der Lösung mit ChatGPT, was Schüler:innen signa­li­siert, dass sie für eine Best­no­te auf KI-Unter­stüt­zung zurück­grei­fen müssen.

  3. Das Tool weist grund­le­gen­de Defi­zi­te auf, von denen die Stu­die meh­re­re als “fata­le Gebrauchs­hin­der­nis­se” klas­si­fi­ziert. Es wird dar­auf hin­ge­wie­sen, dass die meis­ten der beob­ach­te­ten Män­gel auf die inhä­ren­ten tech­ni­schen Eigen­schaf­ten und Limi­ta­tio­nen gro­ßer Sprach­mo­del­le (LLMs) zurück­zu­füh­ren sind. Aus die­sen Grün­den ist eine schnel­le tech­ni­sche Lösung der Män­gel nicht zu erwarten.

Die Stu­die bezieht sich auf die Nut­zung von Sprach­mo­del­len durch Lehr­kräf­te. Dies ist eine Nut­zung durch Expert:innen mit ent­spre­chen­der Erfah­rung und Exper­ti­se bei der Umset­zung von Bewertungen.

Die weit­ge­hend fach­lich unre­flek­tier­te For­de­rung nach flä­chen­de­cken­der Bereit­stel­lung von soge­nann­ten KI-Tools zieht sich sowohl durch die Pres­se­land­schaft als auch durch Ver­bän­de. Unser Medi­en­zen­trum stellt Lehr­kräf­ten an Schu­len in Trä­ger­schaft des Land­krei­ses tat­säch­lich einen sol­chen Zugang bereit. Ich wür­de mitt­ler­wei­le dar­über nach­den­ken, die­se Bereit­stel­lung an eine vor­he­ri­ge ver­bind­li­che Schu­lung und Sen­si­bi­li­sie­rung zu koppeln.

In Bezug auf die Nut­zung durch Schüler:innen hat Jep­pe Klit­gaard Stri­cker für mich bemer­kens­wer­te The­sen bzw. Beob­ach­tun­gen auf- bzw. angestellt:

  1. Intel­lek­tu­el­le Spie­ge­lung: Schüler:innen über­neh­men unbe­wusst von LLMs gene­rier­te Sprachmuster.
  2. Digi­ta­le Abhän­gig­keits­stö­rung: Schüler:innen gera­ten in Panik, wenn KI-Tools nicht ver­füg­bar sind.
  3. Die Illu­si­on der Beherr­schung: Schüler:innen den­ken, sie hät­ten es ver­stan­den, weil AI es erklärt hat.
  4. Ver­fall der kol­la­bo­ra­ti­ven Intel­li­genz: Schüler:innen ver­zich­ten auf mensch­li­ches Brain­stor­ming, wenn KI schnel­ler ist
  5. Ver­wir­rung zwi­schen Rea­li­tät und Prompt: Schüler:innen betrach­ten Her­aus­for­de­run­gen aus dem wirk­li­chen Leben als Prompt zur Optimierung
  6. Kri­se des Wis­sens­ver­trau­ens: Schüler:innen zwei­feln an der mensch­li­chen Weis­heit im Ver­gleich zur KI-Gewissheit
  7. KI-indu­zier­ter Per­fek­tio­nis­mus: Der Druck, die feh­ler­frei­en Ergeb­nis­se der KI zu erreichen

Ich möch­te das Wort „Schüler:innen“ hier ger­ne all­ge­mei­ner durch das Wort „Ler­nen­de“ erset­zen, denn vie­le der Punk­te dürf­ten eben­so auf Erwach­se­ne zutref­fen. Für mich ist die­se Per­spek­ti­ve recht neu, weil ich bis­her bei mei­ner Kri­tik an der Nut­zung von Sprach­mo­del­len im Unter­richt eher kogni­ti­ons­theo­re­tisch unter­wegs war:

In aller Kür­ze: Unser Arbeits­ge­dächt­nis ent­hält das, was wir aktu­ell den­ken. Es speist sich u.a. aus dem, was wir im Lau­fe des Lebens in unser Lang­zeit­ge­dächt­nis über­nom­men haben. Der Ver­net­zungs­grad die­ses Wis­sens im Lang­zeit­ge­dächt­nis ist bei erfah­re­nen Per­so­nen (Exper­ten) grö­ßer als bei eher uner­fah­re­nen (Novi­zen). Der Out­put von Sprach­mo­del­len über­las­tet die Kapa­zi­tät des Arbeits­ge­dächt­nis­ses bei Noviz:innen viel schnel­ler als bei Expert:innen, weil weni­ger Kom­pen­sa­ti­on durch vor­ver­netz­tes Wis­sen aus dem Lang­zeit­ge­dächt­nis erfolgt.

Natür­lich ist KI z.B. bei der Erstel­lung von Semi­nar­ar­bei­ten in jeder Pha­se nutz­bar. Zu prü­fen ist aber sehr genau, in wel­chem Umfang das für Noviz:innen mit sehr hete­ro­ge­nem Ver­net­zungs­grad – so sind Lern­grup­pen zusam­men­ge­setzt – im Lang­zeit­ge­dächt­nis sinn­voll ist.

Unter Berück­sich­ti­gung der bis­he­ri­gen Prä­mis­sen sind Sprach­mo­del­le erst dann lern­för­der­lich nutz­bar, wenn bei den Noviz:innen bereits ein gewis­ses Maß an ver­netz­tem Vor­wis­sen vor­han­den ist. Unver­ant­wort­lich wird für mich eine unter­richt­li­che The­ma­ti­sie­rung allein auf der Benut­zungs- und Bedienungsebene.

Expert:innen hin­ge­gen kön­nen wahr­schein­lich zwar die Aus­ga­ben von Sprach­mo­del­len deut­lich bes­ser bewer­ten, sie aber ohne ein Grund­ver­ständ­nis für deren Funk­ti­on nicht reflek­tiert nut­zen. Wer lässt denn z.B. den glei­chen Text mehr­fach durch ein KI-Werk­zeug bewer­ten und ver­gleicht die Aus­ga­ben dann zusätz­lich mit­ein­an­der, wie es in der zitier­ten Stu­die gesche­hen ist? Zudem ist das Mar­ke­ting­ver­spre­chen der Zeit­er­spar­nis damit ziem­lich schnell hin­fäl­lig. Auch Expert:innen sind ten­den­zi­ell „anfäl­lig“ für die von Stri­cker for­mu­lier­ten Mechanismen.

2. Produkte von KI-Anwendungen sind das neue Plastik und kontaminieren den Kommunikationsraum des Internets

Unter ande­rem von Linux Lee kommt die Idee, Pro­duk­te gene­ra­ti­ver KI ana­log mit aus Erd­öl her­ge­stell­tem Plas­tik zu sehen. Genau wie das Erd­öl­pro­dukt unse­rer fass­ba­re Welt füllt, fül­len die Pro­duk­te gene­ra­ti­ver KI (Musik, Bil­der, Vide­os, Tex­te etc.) den kom­mu­ni­ka­ti­ven Raum des Internets.

Im Zuge von Nach­hal­tig­keits­den­ken gerät Plas­tik schnell in eine nega­ti­ve Ecke, ist aber als Werk­stoff aus einer moder­nen Gesell­schaft an viel­fäl­ti­gen Stel­len nicht weg­zu­den­ken. Ein gra­vie­ren­der Unter­schied besteht dar­in, was man mit vor­han­de­nem Plas­tik machen kann. Prin­zi­pi­ell ist Plas­tik aus Erd­öl recy­cle­bar, nur ist das weder wirt­schaft­lich noch gibt es ent­spre­chen­de Steue­rungs­me­cha­nis­men in der Pro­duk­ti­ons- und Ver­wer­tungs­ket­te, die das über­haupt ermög­li­chen wür­den. Bei einem gut struk­tu­rier­ten Plas­tik­kreis­lauf ist eine Mehr­fach­nut­zung des Werk­stoffs ohne sehr gro­ße Qua­li­täts­ein­bu­ßen prin­zi­pi­ell denkbar.

Je mehr Pro­duk­te gene­ra­ti­ver KI in den Kom­mu­ni­ka­ti­ons­raum des Inter­nets gelan­gen, des­to wahr­schein­li­cher ist die Gefahr, dass sie wie­der­um selbst die eigent­lich Trai­nings­ba­sis für KI wer­den. Man spricht dabei von einem soge­nann­ten „Rebound-Effekt“. Mehr oder weni­ger humor­voll wur­de bezo­gen auf das Bil­dungs­we­sen die The­se for­mu­liert, dass irgend­wann eine „Lehr­kräf­te-KI“ die „KI-Haus­auf­ga­ben“ der Schüler:innen bewer­tet. Iro­ni­scher­wei­se lie­fert die Stu­die von Mühl­hoff und Hen­ningsen ja genau dafür eine „Anfangs­evi­denz“. Im Gegen­satz zum Plas­tik aus Erd­öl ist die Res­sour­ce „Pro­dukt einer gene­ra­ti­ven KI“ nicht wirk­lich begrenzt, wenn z.B. rege­ne­ra­ti­ve Ener­gie zu deren Pro­duk­ti­on genutzt wird. Damit gibt es kein wirk­li­ches Inter­es­se oder gar eine Not­wen­dig­keit, die­se Pro­duk­te zu regu­lie­ren. Allein die kri­ti­sche Betrach­tung von KI im Bil­dungs­kon­text wird durch­aus mit Inno­va­ti­ons­feind­lich­keit in Ver­bin­dung gebraucht.

Das wie­der­um hat damit zu tun, dass KI oft nicht dif­fe­ren­ziert betrach­tet wird: Mit ähn­li­chen infor­ma­ti­schen Mecha­nis­men kann eine KI Spra­che erzeu­gen oder aber sehr effi­zi­ent Pro­te­in­struk­tu­ren in der Ent­wick­lung von Medi­ka­men­ten berech­nen. Das kön­nen nach­hal­ti­ge Pro­duk­te wer­den, wie sie auch beim Plas­tik aus Erd­öl mög­lich sind. Bei­des „ist“ KI.

Letz­te­ren Ein­satz von KI wür­de ich deut­lich anders bewer­ten, da das ent­ste­hen­de Pro­dukt auf eine völ­lig ande­ren Ebe­ne Wirk­sam­keit ent­fal­tet. Die­se Unter­schie­de in der Betrach­tung ver­mis­se ich in der gesell­schaft­li­chen Dis­kus­si­on. Gera­de im Bil­dungs­be­reich ist das The­ma meist mar­ke­ting- und buz­zword­ge­schwän­gert und trifft auf eine infor­ma­tisch meist nicht aus­rei­chend vor­ge­bil­de­te Zielgruppe.

Ja, was soll man denn machen? KI ist ja nunmal da!

… und geht nicht wie­der weg. In einer Rede zum Abitur mei­nes Soh­nes habe ich beschrie­ben, dass die Mög­lich­keit, sich ent­schei­den zu kön­nen, eine Luxus­si­tua­ti­on ist. Tat­säch­lich kann man sich dafür ent­schei­den, Sprach­mo­del­le im Unter­richt nicht zu nut­zen. Ich per­sön­lich tue mich schwer damit, län­ge­re Text­pro­duk­tio­nen ist die Haus­auf­ga­be zu geben – das mache ich lie­ber im Unter­richt, z.B. in Kom­bi­na­ti­on mit kol­la­bo­ra­ti­ven Schreib­werk­zeu­gen. Die ent­ste­hen­den Pro­duk­te stel­len schon eine eigen­stän­di­ge Leis­tung dar. Sehr gut funk­tio­niert eine ortho­gra­fi­sche und gram­ma­ti­sche „Nach­kon­trol­le“ durch ki-basier­te Werk­zeu­ge. Gera­de in der Mit­tel­stu­fe soll­ten die Kom­pe­ten­zen zur Bewer­tung der „KI-Ein­grif­fe“ in die­sem Bereich im Prin­zip schon­mal im Schul­le­ben vor­ge­kom­men und „vor­ver­netzt“ im Lang­zeit­ge­dächt­nis vor­lie­gen – eigentlich.

Eine der wesent­li­chen Haupt­auf­ga­ben von Bil­dung wird sein, wie man ver­mit­teln kann, dass bestimm­te Din­ge gekonnt wer­den soll­ten, bevor KI zum Ein­satz kommt – gera­de weil die Maschi­ne es doch so viel bes­ser kann. Und das nicht nur bei Schüler:innen son­dern vor allem auch bei uns Lehrkräften.

Wenn wir dar­über nach­den­ken, lan­den wir sehr schnell bei struk­tu­rel­len Über­le­gun­gen zum Bil­dungs­sys­tem an sich.

Ach, Lui­se, lass … das ist ein zu wei­tes Feld.“ (Theo­dor Fontane)

Facebook Like

Ein Kommentar

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert