KI generierte (Fach-)Arbeiten erkennen

Prolog

Phil­ip­pe Wampf­ler ver­trat vor eini­ger Zeit die Auf­fas­sung, dass KI-Detek­to­ren funk­tio­nie­ren. Es gibt Fach­per­so­nen wie Doris Wes­sels, die dem vehe­ment wider­spre­chen. Ein zen­tra­ler Ansatz von Phil­ip­pe ist folgender:

Die funk­tio­nie­ren­den Detek­to­ren set­zen aber genau so wie die text- oder bild­ge­ne­rie­ren­den Tools Machi­ne-Lear­ning ein, um KI-gemach­te von men­schen­ge­mach­ten Pro­duk­ten zu unterscheiden.

Die mini­ma­le Vor­aus­set­zung, dass man Model­le spe­zi­ell mit KI Arte­fak­ten trai­niert, um die­se spe­zia­li­sier­te Anwen­dung abzu­de­cken, ist eine kos­ten­de­cken­de Nach­fra­ge durch den Markt. Ich glau­be, der zuge­hö­ri­ge Markt ist – zumin­dest für die Prü­fung von Tex­ten – schlicht zu klein, um ein Modell auf­wän­dig für die­sen Anwen­dungs­fall zu trai­nie­ren. Als „Techie“ glau­be ich eher an eine selbst­re­fle­xi­ve Mus­ter­su­che der Model­le in den eige­nen Vek­tor­räu­men mit Sys­temsprompts wie:

Wel­che Anteil des vor­lie­gen­den Tex­tes fin­det du mit hoher Wahr­schein­lich­keit in genau der dar­ge­bo­te­nen Rei­hen­fol­ge im Vek­tor­raum dei­nes eige­nen Modells?“

Und damit lau­fen wir in sys­te­ma­ti­schen Pro­ble­me der trans­form­er­ba­sier­ten LLMs, z.B. der prin­zip­be­dingt man­geln­den Sta­bi­li­tät: Lässt man den glei­chen Text 10x „tes­ten“, erhält man zehn unter­schied­li­che Pro­zent­wer­te für die Wahr­schein­lich­keit, dass ein Text KI-gene­riert ist.

Der Anlass

Ich habe in die­sem Jahr 15 Fach­ar­bei­ten kor­ri­giert. Das ist hier in Nie­der­sach­sen die „letz­te Run­de“, weil man behörd­lich vor dem „KI-Pro­blem“ bereits inso­fern kapi­tu­liert hat, dass die Fach­ar­beit künf­ti­ger Schü­ler­ge­nera­tio­nen durch ande­re For­ma­te ersetzt wird. Lisa Rosa weist dabei nach ein­mal auf den Zusam­men­hang zwi­schen Schrei­ben und Den­ken mit Ver­weis auf Vygots­kij hin. Ich hal­te die­se Ent­schei­dung in Bezug auf die Erstel­lung von Fach­ar­bei­ten daher für verfrüht.

Ich habe den Schüler:innen gegen­über offen kom­mu­ni­ziert, dass ich KI-Detek­to­ren ein­set­zen wer­de und muss­te mir von Doris Wes­sels (sie stammt aus einer Nach­bar­ge­mein­de) allein für die Idee viel Kri­tik anhören.

Mein Ansatz war folgender:

  • Ich nut­ze für die gesam­te Lern­grup­pe das glei­che Tool (ZeroGPT) und bil­de einen Mit­tel­wert der ermit­tel­ten Wahrscheinlichkeiten.
  • bei hohen Anwei­chun­gen nach oben schaue genau­er auf bestimm­te Text­mar­ker (s.u.) und behal­te mir ggf. inhalt­li­che Nach­prü­fun­gen vor.
  • Eine unmit­tel­ba­re Aus­wir­kung auf die Bewer­tung ent­steht durch das Ergeb­nis eines KI-Detek­tors allein(!) erst­mal nicht.
Erkenntnisse

Die Nut­zung eines KI-Detek­tors ist kom­plet­ter Unsinn. Dabei ist es irrele­vant, ob er funk­tio­niert oder nicht funk­tio­niert, weil der Text der Fach­ar­beit höchst­wahr­schein­lich durch inkom­pe­ten­ten Gebrauch von LLMs inhalt­lich und struk­tu­rell deut­lich schlech­ter wird als durch eigen­stän­di­ge Erar­bei­tung. Das gilt aus­drück­lich nicht für die sprach­li­che Form.

In die­sen Thread auf bildung.social sind eini­ge Text­mar­ker zusam­men­ge­tra­gen, die zumin­dest bei mir gut mit einer hohen Wahr­schein­lich­keit im KI-Detek­tor kor­re­lie­ren. Sie stam­men von mir und der Com­mu­ni­ty (u.a. Tobi­as Wun­der, I. L. Vil­li­an)

  1. Kei­ne direk­ten Zita­te bzw. Aus­ein­an­der­set­zung damit
  2. Inhalt­li­che Neu­an­sät­ze, durch Anein­an­der­rei­hung von Quellenzusammenfassungen
  3. Red­un­dan­zen, wenn Quel­len zu ana­lo­gen Schlüs­sen kommen
  4. Lehr­buch­ar­ti­ger Sprach­duk­tus, meist „über­re­du­ziert“ und dadurch oberflächlich
  5. Inhalt­lich viel zu brei­te Anlage
  6. Kaum vor­han­de­ne Lesen­den­füh­rung, feh­len­de Vernetzung
  7. Selt­sa­me, unvoll­stän­di­ge Auf­zäh­lun­gen ohne Mehrwert
  8. Stot­te­rer“ (glei­che Satz­tei­le mehr­fach im Satz), z.B. „Es gibt ver­schie­de­ne Ampel­far­ben, z.B. rot, gelb, rot, blau.“
  9. Selt­sa­me, durch Goo­geln oder Lite­ra­tur­re­cher­che für SuS kaum auf­find­ba­re Belege
  10. Bei inter­na­tio­nal bedeut­sa­men The­men eine star­ke US-Zen­trie­rung der Quellen
  11. Von Sei­ten wie books.google.com usw. wird nur der Deeplink Link „zitiert“, obwohl der Text dahin­ter kom­plet­te biblio­gra­fi­sche Daten besitzt.
  12. […]

Jeder die­ser Text­mar­ker ist durch Spe­zi­fi­ka der LLMs mit Trans­for­mer­an­satz gut erklär­bar, die „Stot­te­rer“ etwa durch Modell­rau­schen oder der Sprach­duk­tus durch zu brei­tes the­men­über­grei­fen­des Trai­ning des Modells.

Die häu­fig zu brei­te inhalt­li­che Anla­ge lässt sich dadurch erklä­ren, dass in Wis­sens­do­mä­nen, in den sich ein Schrei­ber nicht aus­kennt, nicht sinn­voll zwi­schen Rele­vanz und Irrele­vanz unter­schie­den wer­den kann und auch die Aus­wahl eines sinn­vol­len Fokus erschwert ist. Das passt sehr gut zur Kogni­ti­ons­theo­rie mit Lang­zeit- und Arbeits­ge­dächt­nis.

Daher glau­be ich mitt­ler­wei­le, dass LLMs völ­lig unge­eig­net für Novi­zin­nen in einem The­ma sind, wenn sie sich einen Über­blick dar­über ver­schaf­fen wol­len oder ohne Vor­re­cher­che Glie­de­run­gen mit sol­chen Werk­zeu­gen erstel­len las­sen – ent­ge­gen häu­fig beschrie­be­ner unter­richt­li­cher Ein­satz­sze­na­ri­en auf Socialmedia. 

Ausblick

Die häu­fig ange­bo­te­ne „Lösung“ bei schlech­ten Ergeb­nis­sen durch LLMs besteht dar­in, den „Feh­ler“ in man­geln­den Promp­ting-Skills zu sehen. Mich über­zeugt das immer weni­ger, gera­de wenn es dar­um geht, einen geschlos­se­nen Gedan­ken­gang unter Ver­wen­dung von Sekun­där­li­te­ra­tur zu ent­wi­ckeln. Ein her­aus­ra­gen­der Text setzt für mich eige­ne Lebens­rea­li­tät, eige­nen Erfah­run­gen in der Welt in Bezug zu Erfah­run­gen aus Lite­ra­tur, For­schungs­er­geb­nis­sen Drit­ter usw..

Wir kön­nen in Bezug auf LLMs alles daher­ar­gu­men­tie­ren, aber genau an dem feh­len­den indi­vi­du­el­len Welt­be­zug muss es sys­tem­be­dingt bei unse­ren heu­ti­gen algo­rith­mi­schen Ansät­zen immer scheitern.

Es gibt Anwen­dun­gen, für die LLMs gera­de­zu prä­de­sti­niert sind, näm­lich bei allem, was im Prin­zip ent­seelt ist und kei­nen indi­vi­du­el­len beruf­li­chen Arbeits­schwer­punkt bil­det: Aus PDFs Excels­heets machen, vie­le For­men von Gut­ach­ten, Ver­mer­ke Anträ­ge – d.h. Kom­mu­ni­ka­ti­ons­si­tua­tio­nen, die im Prin­zip kaum durch dia­lo­gi­sche, son­dern eher para­so­zia­le Dis­kur­se geprägt sind – gera­de auch in juris­ti­schen Berei­chen. Und gera­de dort dürf­te es hin­rei­chend gro­ße Märk­te geben, um spe­zia­li­sier­te Nischen­mo­del­le gezielt zu trainieren.

 

 

 

Herausforderungen bei der Nutzung von Sprachmodellen im Bildungssystem

Ich habe erst­ma­lig einen für mich sehr wich­ti­gen Text von Jep­pe Klit­gaard Stri­cker aus dem Eng­li­schen mit Hil­fe von https://www.deepl.com auf Deutsch über­setzt. Dabei habe ich nur eini­ge klei­ne­re Ver­än­de­run­gen vor­ge­nom­men. Ich nut­ze den ursprüng­li­chen Lin­ke­dIn-Post  von Jep­pe in mei­nen Grund­satz­vor­trä­gen zu KI (ab Folie 47), in den er in die­sem län­ge­ren Text wei­ter aus­ge­führt hat. Jep­pe ist seit über zwan­zig Jah­ren beruf­lich in der uni­ver­si­tä­ren Bil­dung unter­wegs und kommt aus Dänemark.

Die stille Revolution: Wie KI das Hochschulwesen auf den Kopf stellt

Wir erle­ben der­zeit tief­grei­fen­de Ver­än­de­run­gen in der Art und Wei­se, wie Schü­ler und Stu­den­ten den­ken und ler­nen, doch vie­le die­ser Ver­än­de­run­gen wer­den in Bil­dungs­krei­sen nach wie vor kaum the­ma­ti­siert. Wäh­rend sich Debat­ten über KI im Bil­dungs­we­sen oft auf aka­de­mi­sche Inte­gri­tät und Bewer­tungs­me­tho­den kon­zen­trie­ren, fin­den bereits tief­grei­fen­de kogni­ti­ve und ver­hal­tens­be­zo­ge­ne Ver­än­de­run­gen statt. Dar­über müs­sen wir sprechen.
Man soll­te im Blick haben, dass Stu­die­ren­de mög­li­cher­wei­se bereits unbe­wusst die cha­rak­te­ris­ti­schen Kom­mu­ni­ka­ti­ons­mus­ter der KI über­neh­men – eine Form der intel­lek­tu­el­len Spie­ge­lung, die in unge­zwun­ge­nen Gesprä­chen beginnt und sich dann in den aka­de­mi­schen Dis­kurs ein­schleicht. Dabei geht es nicht nur um das Nach­ah­men von Spra­che; viel­mehr han­delt es sich um eine poten­zi­el­le Ver­än­de­rung in der Art und Wei­se, wie Stu­die­ren­de Ideen ver­ar­bei­ten und formulieren.
Noch beun­ru­hi­gen­der ist viel­leicht, dass wir bereits ers­te Anzei­chen des­sen beob­ach­ten, was man als „digi­ta­le Abhän­gig­keits­stö­rung“ bezeich­nen könn­te – Schüler:innen, die ech­te Angst­ge­füh­le ver­spü­ren, wenn gene­ra­ti­ve KI-Tools vor­über­ge­hend nicht ver­füg­bar sind.

Die gesellschaftlichen Kosten

Die­se Abhän­gig­keit steht im Zusam­men­hang mit einem umfas­sen­de­ren Phä­no­men, bei dem sich Stu­die­ren­de zuneh­mend als Fach­ex­per­ten betrach­ten, nur weil gene­ra­ti­ve KI kom­ple­xe Inhal­te auf schein­bar leicht ver­ständ­li­che Wei­se prä­sen­tiert hat.
Die Illu­si­on, durch das Ver­ständ­nis der KI alles zu beherr­schen, droht tra­di­tio­nel­le Ansät­ze des Deep Lear­ning und des kri­ti­schen Den­kens zu unter­gra­ben, wenn wir nicht auf­pas­sen. Wenn gene­ra­ti­ve KI alles auf den ers­ten Blick ver­ständ­lich erschei­nen lässt, wird der ent­schei­den­de Kampf, der ech­tes Ler­nen oft beglei­tet, umgangen.
Die Aus­wir­kun­gen auf das kol­la­bo­ra­ti­ve Ler­nen sind eben­so besorg­nis­er­re­gend. Die Schü­ler begin­nen, die gemein­sa­me Pro­blem­lö­sung im Team zuguns­ten der effi­zi­en­te­ren, aber iso­lier­ten Ansät­ze gene­ra­ti­ver KI auf­zu­ge­ben. Grup­pen-Brain­stor­ming und gegen­sei­ti­ges Ler­nen – seit jeher ent­schei­den­de Kom­po­nen­ten für die Ent­wick­lung sowohl sozia­ler als auch kogni­ti­ver Fähig­kei­ten – wei­chen der Ein­ga­be von Stich­wor­ten sowie der Bera­tung und Unter­stüt­zung durch KI.
Die­ser Wan­del erfor­dert neue Ansät­ze hin­sicht­lich unse­rer Sicht­wei­se auf die sozia­len Aspek­te der Bil­dung, die tra­di­tio­nell Inno­va­ti­on, Krea­ti­vi­tät und emo­tio­na­le Intel­li­genz geför­dert hat.
Am beun­ru­hi­gends­ten ist jedoch viel­leicht die sich abzeich­nen­de Gefahr, dass Schüler:innen kom­ple­xe Her­aus­for­de­run­gen der rea­len Welt auf Auf­ga­ben redu­zie­ren, die ledig­lich opti­miert wer­den müs­sen, anstatt sie als Pro­ble­me zu betrach­ten, die mensch­li­ches Nach­den­ken und ein dif­fe­ren­zier­tes Ver­ständ­nis erfordern.
Wenn Schü­ler begin­nen, die Rea­li­tät durch die Bril­le der Promp­ting-Tech­nik zu betrach­ten, besteht die Gefahr einer grund­le­gen­den Ver­än­de­rung in der Art und Wei­se, wie künf­ti­ge Gene­ra­tio­nen an die Pro­blem­lö­sung herangehen.
Dies wirft auch Fra­gen hin­sicht­lich des Ver­trau­ens in Wis­sen auf. Da KI-Sys­te­me zuneh­mend kon­sis­tent klin­gen­de Ant­wor­ten lie­fern, könn­ten Schü­ler anfan­gen, an mensch­li­cher Fach­kom­pe­tenz zu zwei­feln, ins­be­son­de­re wenn die­se im Wider­spruch zu den Ergeb­nis­sen der KI steht.
Der Druck, mit der schein­bar makel­lo­sen Leis­tung der KI mit­hal­ten zu müs­sen, könn­te eine neue Form des Per­fek­tio­nis­mus begüns­ti­gen, die Krea­ti­vi­tät und Risi­ko­be­reit­schaft hemmt. Ganz zu schwei­gen von den Pro­ble­men, die dies hin­sicht­lich der fach­li­chen Auto­ri­tät im Klas­sen­zim­mer und dar­über hin­aus mit sich bringt.

Die Köpfe von morgen formen

Die­se Ver­än­de­run­gen bedeu­ten sicher­lich mehr als nur eine Umstel­lung der päd­ago­gi­schen Metho­den – sie deu­ten auf eine grund­le­gen­de Neu­ge­stal­tung der Art und Wei­se hin, wie künf­ti­ge Gene­ra­tio­nen den­ken, ler­nen und Pro­ble­me lösen wer­den. Die eigent­li­che Umwäl­zung liegt nicht dar­in, wie wir unter­rich­ten, son­dern dar­in, wie der Geist unse­rer Schü­ler durch die stän­di­ge Inter­ak­ti­on mit künst­li­cher Intel­li­genz neu geprägt wird.
Tra­di­tio­nel­le Bil­dungs­hier­ar­chien gera­ten ins Wan­ken, da Stu­die­ren­de zuneh­mend auf KI zurück­grei­fen, um Ant­wor­ten zu fin­den, bevor sie ihre Pro­fes­so­ren oder Kom­mi­li­to­nen um Rat fra­gen. Die­ser Wan­del wirkt sich nicht nur auf die Dyna­mik im Unter­richt aus. Er ver­än­dert grund­le­gend, wie Wis­sen vali­diert und Auto­ri­tät in Bil­dungs­ein­rich­tun­gen eta­bliert wird.
Folg­lich ist die Her­aus­for­de­rung für Päd­ago­gen kom­ple­xer als die blo­ße Anpas­sung von Unter­richts­me­tho­den – sie erfor­dert, die­se tie­fer­ge­hen­den kogni­ti­ven und ver­hal­tens­be­zo­ge­nen Ver­än­de­run­gen zu ver­ste­hen und dar­auf ein­zu­ge­hen. Wir müs­sen sicher­stel­len, dass wir, wenn wir die Vor­tei­le gene­ra­ti­ver KI nut­zen, nicht ver­se­hent­lich zen­tra­le Aspek­te des Ler­nens und der Ent­wick­lung gefähr­den, die seit Jahr­hun­der­ten im Mit­tel­punkt der Bil­dung ste­hen. Oder zumin­dest soll­te es, falls wir dies tun, eine bewuss­te und wohl­über­leg­te Ent­schei­dung sein. Eine Ent­schei­dung, die von Päd­ago­gen getrof­fen wird.
Die heu­ti­gen päd­ago­gi­schen Prak­ti­ken prä­gen nicht nur die unmit­tel­ba­ren Lern­ergeb­nis­se, son­dern auch die kogni­ti­ve Struk­tur künf­ti­ger Gene­ra­tio­nen. Da künst­li­che Intel­li­genz zuneh­mend in Bil­dungs­pro­zes­se inte­griert wird, müs­sen wir sorg­fäl­tig abwä­gen, wie sich die­se Tech­no­lo­gie nicht nur auf das aus­wirkt, was Schü­ler ler­nen, son­dern auch dar­auf, wie sie den­ken, inter­agie­ren und die Welt um sich her­um verstehen.
Die Ent­schei­dun­gen, die wir heu­te in Bezug auf KI im Bil­dungs­we­sen tref­fen, wer­den noch sehr, sehr lan­ge nach­wir­ken. Ob wir hier die rich­ti­gen (oder fal­schen) Ent­schei­dun­gen tref­fen, wird die kol­lek­ti­ve intel­lek­tu­el­le Leis­tungs­fä­hig­keit der Gesell­schaft über Gene­ra­tio­nen hin­weg beeinflussen.

Quel­le: https://jeppestricker.substack.com/p/the-silent-revolution-how-ai-is-slowly

 

Kritisches Denken ohne Fachwissen ist kein Denken. Es ist Raten mit Methode.

Ein wei­te­rer, für mich wich­ti­ger Text kommt von Bar­ba­ra Gey­er aus dem öster­rei­chi­schen Bur­gen­land. Letzt­lich begrün­det sie, war­um kri­ti­sches Den­ken nicht ohne Anbin­dung an kon­kre­te Wis­sens­do­mä­nen funk­tio­nie­ren kann.

Die bri­ti­sche Bil­dungs­for­sche­rin Dai­sy Chris­to­dou­lou beschreibt das Pro­blem seit 2014. Kri­ti­sches Den­ken ist kei­ne Gene­ral­kom­pe­tenz, die man ein­mal lernt und dann auf belie­bi­ge Inhal­te anwen­den kann. Es ist gebun­den an Wis­sen über den kon­kre­ten Gegen­stand. Ohne die­ses Wis­sen grei­fen die bes­ten Check­lis­ten ins Lee­re. Kri­ti­sches Den­ken ohne Fach­wis­sen ist kein Den­ken. Es ist Raten mit Methode.

Quel­le: https://barbarageyer.substack.com/p/ki-fachkompetenzschwelle

Das ist letzt­lich Was­ser auf mei­nen Müh­len, wel­che Rol­le KI im Bil­dungs­sys­tem für mich eigent­lich ein­neh­men sollte.

  1. Was muss ich kön­nen, bevor ich ein Sprach­mo­dell sinn­voll für mei­nen Lern­pro­zess nut­zen kann?
  2. Wenn ich das kann: Wobei kann mir das Sprach­mo­dell kon­kret helfen?

 

Wo ich mir KI im Bildungssystem gut vorstellen kann

Zur­zeit bin ich mit mei­nen Gedan­ken eher in der abo­lu­ten Min­der­heit, weil sehr viel Hoff­nung auf KI im Bil­dungs­sys­tem gesetzt wird. Bei aller kri­ti­schen Betrach­tung: Ich habe bereits Anwen­dungs­fäl­le for­mu­liert, in denen ich KI als gutes Werk­zeug wahr­neh­me. Ich möch­te heu­te noch den Bereich der Inklu­si­on hin­zu­fü­gen – ich sehe in KI vie­le Poten­ti­al, Kom­mu­ni­ka­ti­on inklu­si­ver zu machen und Sprach­bar­rie­ren zu überwinden.

Vorsorgeprodukte von der privaten Krankenversicherung?

Mein pri­va­ter Kran­ken­ver­si­che­rer rief mich kürz­lich an, ob ich nicht Inter­es­se dar­an hät­te, mei­ne unwei­ger­li­che Bei­trags­er­hö­hung im Alter durch ein Pro­dukt abzu­si­chern und für mei­ne gesam­te Pen­si­ons­zeit einen ver­min­der­ten Bei­trag zu zahlen.

Der Deal sieht etwa so aus:

  • ich zah­le jetzt 15 Jah­re lang 100,- Euro mehr Kran­ken­ver­si­che­rungs­bei­trag (net­to, unter Berück­sich­ti­gung der Steu­er­frei­heit von Vorsorgeprodukten).
  • dafür min­dert sich mein Bei­trag für die gesam­te ver­blei­ben­de Lebens­span­ne um 150,- Euro monatlich.

Hört sich erst­mal gut an. Rech­nen wir das doch mal.

 

Wie viel Kapi­tal kann ich in 15 Jah­ren mit 100 Euro/Monat bei unter­schied­li­cher Ver­zin­sung aufbauen?

Wir nut­zen dazu ein Online­tool, wel­ches nach aner­kann­ten Stan­dards arbei­tet und neh­men eine jah­res­wei­se Zins­gut­schrift an.

Das auf­ge­bau­te Kapi­tal bei unter­schied­li­chen Zinssätzen:

  • bei 2% : 20752,- Euro
  • bei 4% : 24028,- Euro
  • bei 6% : 27931,- Euro

 

Wie lan­ge kann ich aus dem auf­ge­bau­ten Kapi­tal­stock monat­lich 150,- Euro entnehmen? 

Ich nut­ze das glei­che Online­tool wie bei der Kapitalberechnung:

  • bei 2% : 13,1 Jah­re (da wäre ich 80 Jah­re alt)
  • bei 4% : 18,9 Jah­re (da wäre ich 86 Jah­re alt)
  • bei 6% :  40,6 Jah­re (da wäre ich 107 Jah­re alt)

Die durch­schnitt­li­che Lebens­er­war­tung eines Man­nes beträgt momen­tan 78 Jah­re, d.h. mit einer Ver­zin­sung unter­halb von 2% ist die eige­ne Geld­an­la­ge dem Pro­dukt des Kran­ken­ver­si­che­rers sta­tis­tisch(!) über­le­gen. Ster­be ich frü­her: Noch bes­ser für den Kran­ken­ver­si­che­rer, da die Anla­ge ja an den Ver­si­che­rungs­ver­trag gebun­den ist, der dann erlischt.

Das Pro­dukt ist zumin­dest im sta­tis­ti­schen Mit­tel also eine Ver­ar­schung des Kun­den – und des Steu­er­zah­lers, der die­sen Irr­sinn durch die Steu­er­frei­heit auch noch mit­fi­nan­ziert – ansons­ten wäre die Net­to­zah­lung noch höher als 100,- Euro. Es wird aber Fäl­le geben (sehr weni­ge), in denen sich sowas rechnet.

 

Gegen­rech­nung mit ETF-Sparplan

Neh­men wir mal einen lang­wei­li­gen ETF, der den DAX abbil­det (7%)  und machen einen Spar- und Ent­nah­me­plan. Auf Basis von his­to­ri­schen Daten kommt da raus:

31110,- Euro und man kann endlos(sic!) 150,- Euro monat­lich ent­neh­men (inner­halb der sta­ti­schen Lebens­er­war­tung sogar über 300,- Euro monatlich).

Und zu kei­ner Zeit zahlt in dem Bereich irgend­wer Kapi­tal­ertrags­steu­er, was man euch ger­ne als Vor­teil ver­kauft (die schlägt erst bei 1000,- Euro Zinsen/Jahr bei Unver­hei­ra­te­ten zu).

Unge­fähr in sol­chen Berei­chen dürf­te sich auch die Gewinn­span­ne des Ver­si­che­rers bewe­gen, weil der das ger­ne mit lang­fris­ti­gen Staats­an­lei­hen absi­chert, die momen­tan bei rund 3–4% liegen.

 

Fazit

  • Lasst das!
  • Lasst auch Ries­ter­ver­trä­ge (rech­net mal trotz Zula­gen gegen ETF-Sparplan)
  • Habt ihr Schul­den: Tilgt die­se lie­ber mit dem Geld, was ihr über habt (da seid ihr immer über 2% Gewinn)

 

 

 

AI at school? Is it just there and do we have to deal with it?

Preliminary remarks for this english version

Alt­hough this artic­le takes a cri­ti­cal look at the use of AI in schools, I have used an AI tool „made in Ger­ma­ny“ for the trans­la­ti­on (https://www.deepl.com). it’s not my style and vio­la­tes my idea of flu­ent english.

On the basis of the­se thoughts, I some­ti­mes face strong cri­ti­cism from the Ger­man edu­ca­ti­on com­mu­ni­ty or even the edu­ca­ti­on admi­nis­tra­ti­on for which I work – it seems to me, that I would break (male) tech­nic toys or spoil them at least.

Introduction

Not a day goes by on social media wit­hout new, cool tips on using AI in the class­room. For three years now, I’ve been giving talks on AI to all kinds of groups and com­mit­tees, which has incre­asing­ly tur­ned into a very cri­ti­cal view of the topic.

1. AI applications that generate language prevent learning processes

Various rese­ar­chers and experts point to serious short­co­mings in lan­guage models, which form the back­bone of many edu­ca­tio­nal offe­rings. The effects on lear­ning pro­ces­ses are also being descri­bed with incre­asing cri­ti­cism. Signi­fi­cant­ly, the most nuan­ced cri­ti­cism almost always comes from peo­p­le with a back­ground in com­pu­ter sci­ence. Advo­ca­tes of the use of lan­guage models in the tea­ching con­text always argue that it always depends on the type of use. I am not con­vin­ced of this.

As an exam­p­le, I would like to refer to a recent stu­dy by Rai­ner Mühl­hoff and Mar­te Hen­ningsen, who took a clo­ser look at a Fobizz tool for the auto­ma­tic assess­ment of home­work. The­re are seve­ral of the­se tools or offe­rings on the Ger­man mar­ket, even tho­se that have recei­ved start-up awards. What they have in com­mon is that they are based on the same IT tech­no­lo­gy and are expli­cit­ly aimed at tea­chers. The study’s base of data is rela­tively small – unfort­u­na­te­ly, this is the case with many stu­dies in the edu­ca­ti­on sec­tor. Here are some excerp­ts from the results:

  1. Both the sug­gested over­all gra­de and the qua­li­ta­ti­ve feed­back varied signi­fi­cant­ly bet­ween dif­fe­rent assess­ment runs of the same sub­mis­si­on. This vola­ti­li­ty poses a serious pro­blem, as tea­chers rely­ing on the tool could unkno­wing­ly award ‘cher­ry-picked’ and poten­ti­al­ly unfair gra­des and feedback.§
  2. Even with full imple­men­ta­ti­on of the sug­ges­ti­ons for impro­ve­ment, it was not pos­si­ble to sub­mit a “per­fect” – i.e. no lon­ger objec­tionable – sub­mis­si­on. A near-per­fect score was only achie­ved by revi­sing the solu­ti­on with ChatGPT, which signals to stu­dents that they need to rely on AI sup­port to achie­ve a top score.“
  3. The tool has fun­da­men­tal short­co­mings, seve­ral of which the stu­dy clas­si­fies as “fatal obs­ta­cles to use”. It is poin­ted out that most of the obser­ved short­co­mings are due to the inher­ent tech­ni­cal cha­rac­te­ristics and limi­ta­ti­ons of lar­ge lan­guage models (LLMs). For the­se reasons, a quick tech­ni­cal solu­ti­on to the short­co­mings is not to be expected.“

The stu­dy refers to the use of lan­guage models by tea­chers. This should a use by experts with cor­re­spon­ding expe­ri­ence and exper­ti­se in the imple­men­ta­ti­on of assessments.

The lar­ge­ly pro­fes­sio­nal­ly unre­flec­ted demand for the nati­on­wi­de pro­vi­si­on of so-cal­led AI tools can be found both in the press and in asso­cia­ti­ons. Our media cen­ter actual­ly pro­vi­des tea­chers at schools run by the dis­trict with such access. I would now con­sider lin­king this pro­vi­si­on to pri­or man­da­to­ry trai­ning and awareness-raising.

With regard to use by stu­dents, Jep­pe Klit­gaard Stri­cker has made some remar­kab­le the­ses and obser­va­tions for me:

  1. Intellec­tu­al mir­ro­ring (stu­dents uncon­scious­ly adop­ting AI speech patterns)
  2. Digi­tal depen­den­cy dis­or­der (stu­dents panic when AI tools are unavailable)
  3. The illu­si­on of mas­tery (stu­dents thin­king they under­stand becau­se AI explai­ned it)
  4. Col­la­bo­ra­ti­ve intel­li­gence decay (stu­dents aban­do­ning human brain­stor­ming when AI is faster)
  5. Rea­li­ty-prompt con­fu­si­on (stu­dents vie­w­ing real-life chal­lenges as prompts to optimize)
  6. Know­ledge con­fi­dence cri­sis (stu­dents doubting human wis­dom vs AI certainty)
  7. AI-indu­ced per­fec­tion­ism (the pres­su­re to match AI’s flaw­less outputs)

I would like to replace the word “stu­dents” with the word “lear­ners” here, becau­se many of the points are likely to app­ly to adults as well. This per­spec­ti­ve is quite new to me, becau­se up to now I have ten­ded to take a cogni­ti­ve-theo­re­ti­cal approach in my cri­ti­cism of the use of lan­guage models in the classroom:

In a nuts­hell: Our working memo­ry con­ta­ins what we are curr­ent­ly thin­king. Among other things, it is fed by what we have trans­fer­red to our long-term memo­ry over the cour­se of our lives. The degree of net­wor­king of this know­ledge in long-term memo­ry is grea­ter for expe­ri­en­ced peo­p­le (experts) than for inex­pe­ri­en­ced peo­p­le (novices). The out­put of lan­guage models over­loads the capa­ci­ty of the working memo­ry of novices much fas­ter than that of experts, becau­se the­re is less com­pen­sa­ti­on through pre-net­work­ed know­ledge from long-term memory.

Of cour­se, AI can be used at any stage, e.g. when wri­ting semi­nar papers. Howe­ver, the ext­ent to which this makes sen­se for novices with a very hete­ro­ge­neous degree of net­wor­king – which is how lear­ning groups are com­po­sed – in long-term memo­ry must be exami­ned very carefully.

Taking into account the pre­vious pre­mi­ses, lan­guage models can only be used to pro­mo­te lear­ning if the novices alre­a­dy have a cer­tain amount of net­work­ed pri­or know­ledge. For me, it would be irre­spon­si­ble to focus tea­ching sole­ly on the level of use and operation.

Experts, on the other hand, are pro­ba­b­ly much bet­ter at eva­lua­ting the out­put of lan­guage models, but wit­hout a basic under­stan­ding of their func­tion, they can­not use them in a reflec­ti­ve man­ner. Who, for exam­p­le, has the same text eva­lua­ted seve­ral times by an AI tool and then com­pa­res the out­puts with each other, as was done in the stu­dy cited? What’s more, the mar­ke­ting pro­mi­se of time savings quick­ly beco­mes obso­le­te. Experts also tend to be „sus­cep­ti­ble“ to the mecha­nisms for­mu­la­ted by Stricker.

2. Products of AI applications are the new plastic and contaminate the communication space of the Internet

Linux Lee, among others, came up with the idea of see­ing gene­ra­ti­ve AI pro­ducts as ana­log­ous to pla­s­tic made from cru­de oil. Just as the petro­le­um pro­duct fills our tan­gi­ble world, the pro­ducts of gene­ra­ti­ve AI (music, images, vide­os, texts, etc.) fill the com­mu­ni­ca­ti­ve space of the internet.

In the cour­se of sus­taina­bi­li­ty thin­king, pla­s­tic quick­ly falls into a nega­ti­ve cor­ner, but as a mate­ri­al it is indis­pensable in many are­as of modern socie­ty. One major dif­fe­rence is what can be done with exis­ting pla­s­tic. In prin­ci­ple, pla­s­tic made from cru­de oil can be recy­cled, but this is neither eco­no­mic­al­ly via­ble nor are the­re any cor­re­spon­ding con­trol mecha­nisms in the pro­duc­tion and recy­cling chain that would make this pos­si­ble. With a well-struc­tu­red pla­s­tic cycle, mul­ti­ple use of the mate­ri­al is con­ceiva­ble in prin­ci­ple wit­hout any major loss of quality.

The more pro­ducts of gene­ra­ti­ve AI enter the com­mu­ni­ca­ti­on space of the inter­net, the more likely it is that they them­sel­ves will beco­me the actu­al trai­ning basis for AI. This is refer­red to as the „rebound effect“. More or less humo­rous­ly, the the­sis was for­mu­la­ted in rela­ti­on to the edu­ca­ti­on sys­tem that at some point a „tea­cher AI“ will eva­lua­te the „AI home­work“ of the stu­dents. Iro­ni­cal­ly, the stu­dy by Mühl­hoff and Hen­ningsen pro­vi­des „initi­al evi­dence“ of pre­cis­e­ly this. In con­trast to pla­s­tic made from cru­de oil, the resour­ce „pro­duct of a gene­ra­ti­ve AI“ is not real­ly limi­t­ed if, for exam­p­le, rene­wa­ble ener­gy is used to pro­du­ce it. This means that the­re is no real inte­rest or even a need to regu­la­te the­se pro­ducts. The cri­ti­cal view of AI in an edu­ca­tio­nal con­text alo­ne is defi­ni­te­ly asso­cia­ted with hosti­li­ty towards innovation.

This in turn has to do with the fact that AI is often not view­ed in a dif­fe­ren­tia­ted way: Using simi­lar com­pu­ter sci­ence mecha­nisms, AI can gene­ra­te lan­guage or cal­cu­la­te pro­te­in struc­tures very effi­ci­ent­ly in the deve­lo­p­ment of medi­ci­nes. The­se can beco­me sus­tainable pro­ducts, as is also pos­si­ble with pla­s­tic made from cru­de oil. Both „are“ AI.

I would eva­lua­te the lat­ter use of AI very dif­fer­ent­ly, as the resul­ting pro­duct is effec­ti­ve on a com­ple­te­ly dif­fe­rent level. I miss this dif­fe­rence in per­spec­ti­ve in the social dis­cus­sion. In the edu­ca­ti­on sec­tor in par­ti­cu­lar, the topic is usual­ly satu­ra­ted with mar­ke­ting and buz­zwords and usual­ly rea­ches a tar­get group that is not suf­fi­ci­ent­ly edu­ca­ted in infor­ma­ti­on technology.

Yes, what can you do? AI is here to stay!

… and does­n’t go away again. In my last gra­dua­ti­on speech at my son’s school, I descri­bed how being able to choo­se is a luxu­ry situa­ti­on. In fact, you can choo­se not to use lan­guage models in class. Per­so­nal­ly, I find it dif­fi­cult to give lon­ger text pro­duc­tions as home­work – I pre­fer to do this in class, e.g. in com­bi­na­ti­on with col­la­bo­ra­ti­ve wri­ting tools. The resul­ting pro­ducts are alre­a­dy an inde­pen­dent achie­ve­ment. An ortho­gra­phic and gram­ma­ti­cal „fol­low-up check“ using ki-based tools works very well. Espe­ci­al­ly in the inter­me­dia­te level, the skills for eva­lua­ting „AI inter­ven­ti­ons“ in this area should, in prin­ci­ple, have alre­a­dy occur­red in school life and be „pre-net­work­ed“ in long-term memo­ry – actually.

One of the main tasks of edu­ca­ti­on will be how to com­mu­ni­ca­te that cer­tain things should be mas­te­red befo­re AI is used – pre­cis­e­ly becau­se the machi­ne can do it so much bet­ter. And not just for stu­dents, but abo­ve all for us teachers.

When we think about this, we very quick­ly end up with struc­tu­ral con­side­ra­ti­ons about the ger­man edu­ca­ti­on sys­tem itself.

Oh, Lui­se, stop … that’s too broad a field.“ (Theo­dor Fon­ta­ne, Effi Briest, last sentence)

Warum lohnt sich die Anstrengung, KI nicht zu nutzen?

Phil­ip­pe Wampf­ler denkt in sei­nem letz­ten Blog­ar­ti­kel dar­über nach, wie lan­ge es noch mög­lich sein wird, KI zur Erstel­lung von Tex­ten in der Schu­le nicht zu nut­zen bzw. wie lan­ge es dafür noch gute Argu­men­te gibt . Er nutzt dafür eine Ana­lo­gie: Nie­mand wür­de heu­te auf die Idee kom­men, im All­tag Sah­ne mit der Hand zu schla­gen, weil mitt­ler­wei­le elek­tri­sche Rühr­ge­rä­te zur Ver­fü­gung ste­hen. Irgend­wann wird nie­mand mehr auf Idee kom­men, Tex­te selbst zu ver­fas­sen, weil KI-Model­le immer bes­ser und nor­ma­ler werden.

Ich habe Schwie­rig­kei­ten mit Ana­lo­gien aus der „ana­lo­gen Welt“ in Bezug auf den gesell­schaft­li­chen Wan­del durch die digi­ta­le Welt. Ob ich Sah­ne mit einer Gabel oder einem Rühr­ge­rät schla­ge, ist bezo­gen auf das Pro­dukt, was dabei ent­steht, letzt­lich nicht ent­schei­dend. Es kommt immer mehr oder weni­ger steif geschla­ge­ne Sah­ne dabei her­aus. Die Kon­sis­tenz der Sah­ne hat dar­über­hin­aus über­haupt kei­ne Wir­kung nach außen – KI hin­ge­gen das Poten­ti­al mit Gesell­schaft in viel­fäl­ti­ger Wei­se zu wechselwirken.

Was an Aus­ga­ben aus einem Sprach­mo­dell kommt, ist mehr oder min­der zufäl­lig. Dass mir ein Sprach­mo­dell einen Text kor­rekt zusam­men­fasst, hängt letzt­lich von sta­tis­ti­schen Berech­nun­gen ab. Bei einem Scan­ner oder Kopie­rer wür­den wir nicht akzep­tie­ren, wenn es zu zufäl­li­gen Aus­ga­ben kommt. Bei Sprach­mo­del­len ist das prin­zip­be­dingt so und wir akzep­tie­ren es. Man kann zwar in Gren­zen Aus­ga­ben beein­flus­sen, aber hät­te dann ggf. den Text in der glei­chen Zeit selbst ver­fasst, die man für das Fin­den eines geeig­ne­ten Prompts benötigt.

Nie­mand löst das mit KI erstell­te Arbeits­blatt bes­ser als KI. Nie­mand beant­wor­tet KI-gene­rier­te Fra­gen zu einem Video bes­ser als KI. Das wis­sen auch Schüler:innen.

Es gibt die Hoff­nung, dass Sprach­mo­del­le bes­ser wer­den könn­ten – dazu müss­te mei­ner Mei­nung nach aber ein tech­nisch gänz­lich neu­er Ansatz ent­wi­ckelt wer­den – der bis­he­ri­ge Trans­for­mer­an­satz hat prin­zip­be­ding­te Gren­zen – schon allein, weil das zur Ver­fü­gung ste­hen­de Trai­nings­ma­te­ri­al limi­tiert ist und dar­über­hin­aus immer mehr KI-gene­rier­te Tex­te das Netz flu­ten, die dann ihrer­seits in einer Feed­back­schlei­fe ihren Weg zurück in die gro­ßen Model­le finden.

Mich treibt eher die­se Fra­ge um:

Was muss man eigent­lich kön­nen, bevor man ein Sprach­mo­dell sinn­voll nut­zen kann?

Um Pro­duk­te für die Schu­le zu gene­rie­ren, muss man eigent­lich in vie­len Fäl­len gar nicht so viel kön­nen, aber ist das letzt­lich für das Ler­nen bzw. den Kom­pe­tenz­er­werb dann hilfreich?

Ich bil­de mir mitt­ler­wei­le ein, KI-gene­rier­te Tex­te deut­lich bes­ser iden­ti­fi­zie­ren zu kön­nen, weil sie u.a. immer einen hin­ein­trai­nier­ten Bias mitbringen.

Ich sehe Sprach­mo­del­le eher da, wo es weni­ger um Ler­nen oder Wis­sen geht.

  • Recht­schreib­kor­rek­tur
  • Erstel­lung von ent­seel­ten Tex­ten (Gut­ach­ten, Anträ­ge, Ver­mer­ke, Produktbeschreibungen…)
  • Doku­men­ten­ma­nage­ment (Such­hil­fe)
  • auto­ma­ti­sche Über­set­zung ent­seel­ter Tex­te (bei z.B. Dia­lo­gen oder lite­ra­ri­schen Tex­ten geht das bis­her m.E. noch nicht gut)
  • ggf. Erstel­lung von Übungs­ma­te­ri­al (wenn den Üben­den kei­ne KI zur Ver­fü­gung steht – s.o.)

Für Digi­tal­kon­zer­ne sind Sprach­mo­del­le vor allem ein gro­ßes Geschenk, um an Inhal­te jed­we­der Art zu kom­men, ohne dass die meis­ten Benutzer:innen das in irgend­ei­ner Form pro­ble­ma­tisch fin­den.  Und das ist nur eine der wei­ter oben ange­deu­te­ten Wech­sel­wir­kun­gen. Mit Sah­ne erreicht man das nicht. Daher ist für mich die­se Ana­lo­gie nur auf den ers­ten Blick einleuchtend.

 

 

1 2 3 150