Es vergeht kein Tag auf Social Media mit neuen, coolen Tipps zur Nutzung von KI im Unterricht. Ich ziehe seit
KI in der Schule? Ist sie nun einmal da und muss man sich deswegen damit beschäftigen?
Es vergeht kein Tag auf Social Media mit neuen, coolen Tipps zur Nutzung von KI im Unterricht. Ich ziehe seit drei Jahren mit einem Vortrag zu KI durch alle möglichen Gruppen und Gremien, der sich mehr und mehr zu einer sehr kritischen Sicht auf das Thema gewandelt hat.
1. KI-Anwendungen, die Sprache generieren, verhindern Lernprozesse
Verschiedene Forscher und Experten weisen auf gravierende Mängel in Sprachmodellen hin, die das Rückgrat vieler Angebote für den Bildungsbereich bilden. Auch die Auswirkungen auf Lernprozesse werden zunehmen kritisch beschrieben. Bezeichnenderweise kommt die differenzierteste Kritik dabei nahezu immer von Menschen mit informatischem Hintergrund. Verfechter der Nutzung von Sprachmodellen im Unterrichtskontext halten stets dagegen, dass es dabei immer auf die Art der jeweiligen Nutzung ankommt. Davon bin ich nicht überzeugt.
Exemplarisch verweise ich auf eine aktuelle Studie von Rainer Mühlhoff und Marte Henningsen, die sich ein Fobizz-Tool zur automatischen Bewertung von Hausaufgaben genauer angeschaut haben. Von diesen Werkzeugen bzw. Angeboten gibt es mehrere auf dem deutschen Markt, sogar solche, die Gründerpreise erhalten haben. Ihnen gemein ist, dass sie sich auf die gleiche informatische Technologie stützen und sich explizit an Lehrkräfte richten. Die Datenbasis der Studie ist verhältnismäßig gering – das ist leider im Bildungsbereich bei vielen Studien so. Hier einige Auszüge aus den Ergebnissen:
-
Sowohl die vorgeschlagene Gesamtnote als auch das qualitative Feedback variierten erheblich zwischen verschiedenen Bewertungsdurchläufen derselben Abgabe. Diese Volatilität stellt ein ernstes Problem dar, da Lehrkräfte, die sich auf das Tool verlassen, unbemerkt quasi “ausgewürfelte” und potenziell ungerechte Noten und Rückmeldungen vergeben könnten.
-
Selbst mit vollständiger Umsetzung der Verbesserungsvorschläge war es nicht möglich, eine “perfekte” – d.h. nicht mehr beanstandete – Einreichung vorzulegen. Eine nahezu perfekte Bewertung gelang nur durch Überarbeitung der Lösung mit ChatGPT, was Schüler:innen signalisiert, dass sie für eine Bestnote auf KI-Unterstützung zurückgreifen müssen.
-
Das Tool weist grundlegende Defizite auf, von denen die Studie mehrere als “fatale Gebrauchshindernisse” klassifiziert. Es wird darauf hingewiesen, dass die meisten der beobachteten Mängel auf die inhärenten technischen Eigenschaften und Limitationen großer Sprachmodelle (LLMs) zurückzuführen sind. Aus diesen Gründen ist eine schnelle technische Lösung der Mängel nicht zu erwarten.
Die Studie bezieht sich auf die Nutzung von Sprachmodellen durch Lehrkräfte. Dies ist eine Nutzung durch Expert:innen mit entsprechender Erfahrung und Expertise bei der Umsetzung von Bewertungen.
Die weitgehend fachlich unreflektierte Forderung nach flächendeckender Bereitstellung von sogenannten KI-Tools zieht sich sowohl durch die Presselandschaft als auch durch Verbände. Unser Medienzentrum stellt Lehrkräften an Schulen in Trägerschaft des Landkreises tatsächlich einen solchen Zugang bereit. Ich würde mittlerweile darüber nachdenken, diese Bereitstellung an eine vorherige verbindliche Schulung und Sensibilisierung zu koppeln.
In Bezug auf die Nutzung durch Schüler:innen hat Jeppe Klitgaard Stricker für mich bemerkenswerte Thesen bzw. Beobachtungen auf- bzw. angestellt:
- Intellektuelle Spiegelung: Schüler:innen übernehmen unbewusst von LLMs generierte Sprachmuster.
- Digitale Abhängigkeitsstörung: Schüler:innen geraten in Panik, wenn KI-Tools nicht verfügbar sind.
- Die Illusion der Beherrschung: Schüler:innen denken, sie hätten es verstanden, weil AI es erklärt hat.
- Verfall der kollaborativen Intelligenz: Schüler:innen verzichten auf menschliches Brainstorming, wenn KI schneller ist
- Verwirrung zwischen Realität und Prompt: Schüler:innen betrachten Herausforderungen aus dem wirklichen Leben als Prompt zur Optimierung
- Krise des Wissensvertrauens: Schüler:innen zweifeln an der menschlichen Weisheit im Vergleich zur KI-Gewissheit
- KI-induzierter Perfektionismus: Der Druck, die fehlerfreien Ergebnisse der KI zu erreichen
Ich möchte das Wort „Schüler:innen“ hier gerne allgemeiner durch das Wort „Lernende“ ersetzen, denn viele der Punkte dürften ebenso auf Erwachsene zutreffen. Für mich ist diese Perspektive recht neu, weil ich bisher bei meiner Kritik an der Nutzung von Sprachmodellen im Unterricht eher kognitionstheoretisch unterwegs war:
In aller Kürze: Unser Arbeitsgedächtnis enthält das, was wir aktuell denken. Es speist sich u.a. aus dem, was wir im Laufe des Lebens in unser Langzeitgedächtnis übernommen haben. Der Vernetzungsgrad dieses Wissens im Langzeitgedächtnis ist bei erfahrenen Personen (Experten) größer als bei eher unerfahrenen (Novizen). Der Output von Sprachmodellen überlastet die Kapazität des Arbeitsgedächtnisses bei Noviz:innen viel schneller als bei Expert:innen, weil weniger Kompensation durch vorvernetztes Wissen aus dem Langzeitgedächtnis erfolgt.
Natürlich ist KI z.B. bei der Erstellung von Seminararbeiten in jeder Phase nutzbar. Zu prüfen ist aber sehr genau, in welchem Umfang das für Noviz:innen mit sehr heterogenem Vernetzungsgrad – so sind Lerngruppen zusammengesetzt – im Langzeitgedächtnis sinnvoll ist.
Unter Berücksichtigung der bisherigen Prämissen sind Sprachmodelle erst dann lernförderlich nutzbar, wenn bei den Noviz:innen bereits ein gewisses Maß an vernetztem Vorwissen vorhanden ist. Unverantwortlich wird für mich eine unterrichtliche Thematisierung allein auf der Benutzungs- und Bedienungsebene.
Expert:innen hingegen können wahrscheinlich zwar die Ausgaben von Sprachmodellen deutlich besser bewerten, sie aber ohne ein Grundverständnis für deren Funktion nicht reflektiert nutzen. Wer lässt denn z.B. den gleichen Text mehrfach durch ein KI-Werkzeug bewerten und vergleicht die Ausgaben dann zusätzlich miteinander, wie es in der zitierten Studie geschehen ist? Zudem ist das Marketingversprechen der Zeitersparnis damit ziemlich schnell hinfällig. Auch Expert:innen sind tendenziell „anfällig“ für die von Stricker formulierten Mechanismen.
2. Produkte von KI-Anwendungen sind das neue Plastik und kontaminieren den Kommunikationsraum des Internets
Unter anderem von Linux Lee kommt die Idee, Produkte generativer KI analog mit aus Erdöl hergestelltem Plastik zu sehen. Genau wie das Erdölprodukt unserer fassbare Welt füllt, füllen die Produkte generativer KI (Musik, Bilder, Videos, Texte etc.) den kommunikativen Raum des Internets.
Im Zuge von Nachhaltigkeitsdenken gerät Plastik schnell in eine negative Ecke, ist aber als Werkstoff aus einer modernen Gesellschaft an vielfältigen Stellen nicht wegzudenken. Ein gravierender Unterschied besteht darin, was man mit vorhandenem Plastik machen kann. Prinzipiell ist Plastik aus Erdöl recyclebar, nur ist das weder wirtschaftlich noch gibt es entsprechende Steuerungsmechanismen in der Produktions- und Verwertungskette, die das überhaupt ermöglichen würden. Bei einem gut strukturierten Plastikkreislauf ist eine Mehrfachnutzung des Werkstoffs ohne sehr große Qualitätseinbußen prinzipiell denkbar.
Je mehr Produkte generativer KI in den Kommunikationsraum des Internets gelangen, desto wahrscheinlicher ist die Gefahr, dass sie wiederum selbst die eigentlich Trainingsbasis für KI werden. Man spricht dabei von einem sogenannten „Rebound-Effekt“. Mehr oder weniger humorvoll wurde bezogen auf das Bildungswesen die These formuliert, dass irgendwann eine „Lehrkräfte-KI“ die „KI-Hausaufgaben“ der Schüler:innen bewertet. Ironischerweise liefert die Studie von Mühlhoff und Henningsen ja genau dafür eine „Anfangsevidenz“. Im Gegensatz zum Plastik aus Erdöl ist die Ressource „Produkt einer generativen KI“ nicht wirklich begrenzt, wenn z.B. regenerative Energie zu deren Produktion genutzt wird. Damit gibt es kein wirkliches Interesse oder gar eine Notwendigkeit, diese Produkte zu regulieren. Allein die kritische Betrachtung von KI im Bildungskontext wird durchaus mit Innovationsfeindlichkeit in Verbindung gebraucht.
Das wiederum hat damit zu tun, dass KI oft nicht differenziert betrachtet wird: Mit ähnlichen informatischen Mechanismen kann eine KI Sprache erzeugen oder aber sehr effizient Proteinstrukturen in der Entwicklung von Medikamenten berechnen. Das können nachhaltige Produkte werden, wie sie auch beim Plastik aus Erdöl möglich sind. Beides „ist“ KI.
Letzteren Einsatz von KI würde ich deutlich anders bewerten, da das entstehende Produkt auf eine völlig anderen Ebene Wirksamkeit entfaltet. Diese Unterschiede in der Betrachtung vermisse ich in der gesellschaftlichen Diskussion. Gerade im Bildungsbereich ist das Thema meist marketing- und buzzwordgeschwängert und trifft auf eine informatisch meist nicht ausreichend vorgebildete Zielgruppe.
Ja, was soll man denn machen? KI ist ja nunmal da!
… und geht nicht wieder weg. In einer Rede zum Abitur meines Sohnes habe ich beschrieben, dass die Möglichkeit, sich entscheiden zu können, eine Luxussituation ist. Tatsächlich kann man sich dafür entscheiden, Sprachmodelle im Unterricht nicht zu nutzen. Ich persönlich tue mich schwer damit, längere Textproduktionen ist die Hausaufgabe zu geben – das mache ich lieber im Unterricht, z.B. in Kombination mit kollaborativen Schreibwerkzeugen. Die entstehenden Produkte stellen schon eine eigenständige Leistung dar. Sehr gut funktioniert eine orthografische und grammatische „Nachkontrolle“ durch ki-basierte Werkzeuge. Gerade in der Mittelstufe sollten die Kompetenzen zur Bewertung der „KI-Eingriffe“ in diesem Bereich im Prinzip schonmal im Schulleben vorgekommen und „vorvernetzt“ im Langzeitgedächtnis vorliegen – eigentlich.
Eine der wesentlichen Hauptaufgaben von Bildung wird sein, wie man vermitteln kann, dass bestimmte Dinge gekonnt werden sollten, bevor KI zum Einsatz kommt – gerade weil die Maschine es doch so viel besser kann. Und das nicht nur bei Schüler:innen sondern vor allem auch bei uns Lehrkräften.
Wenn wir darüber nachdenken, landen wir sehr schnell bei strukturellen Überlegungen zum Bildungssystem an sich.
„Ach, Luise, lass … das ist ein zu weites Feld.“ (Theodor Fontane)
Warum das Fediverse nicht für Sternchen taugt
Die Überschrift dieses Artikels ist ein performativer Widerspruch. Sie zielt darauf auf gelesen zu werden und zu provozieren. Gleichzeitig werden in diesen Beitrag genau diese Muster, wie sie auf Socialmedia vorkommen, kritisch gesehen.
Das Wort „Sternchen“ steht für mich für Personen, deren Motiv, auf Socialmedia wahrgenommen zu werden, gegenüber eher altruistischen Anätzen durchaus ausgeprägt ist („der Schieberegler steht durch jenseits der Mitte“). Oft hängen am Sternchendasein neben dem Aufmerksamkeitsaspekt durchaus handfeste finanzielle Interessen, die aber weitgehend tabuisiert sind.
Das Fediverse wird – gerade von Sternchen mit Reichweite – oft kritisiert:
- zu wenig Interaktionen
- zu wenig Replies
- zu nerdig
- zu grundsätzlich in seinen Reaktionen
- […]
Das hat neben den dort aktiven Menschen tatsächlich auch mit dem technischen Hintergründen zu tun. Während in kommerziellen Netzwerken die Timeline algorithmisch gebaut wird, folgt das Fediverse sehr neutralen Prinzipien. Es ist egal, ob jemand 10 oder 1000 Follower hat – seine Post werden
- allen Followern angezeigt
- nicht künstlich verstärkt, d.h. sie erscheinen u.a. nicht unmotiviert in Timelines von Nicht-Followern
Desweiteren funktionieren bestimmte Taktiken, um Replies (und damit einen algorithmischen Boost) zu bekommen nicht.
- Suggestivfragen stellen („Wie findet ihr …?“) – hört sich neutral an, wird aber oft in einem Umfeld gepostet, in dem bestimmte Antworten sozial vorgezeichnet sind.
- Alltagsbilder mit euphorischem Kommentar posten
- Versteckte oder offene (Eigen-) Werbung
Im Gegenteil werden diese Taktiken eher nerdig „abgestraft“ und kritisch hinterfragt, d.h. Sternchen sehen sich in einer eher defensiven Rolle der Rechtfertigung ihres Marketingshandelns, die nicht algorithmisch durch eine Überbetonung der positiven Replies überdeckt wird.
Weiterhin ist im Fediverse das (manchmal nur gefühlte) Risiko (das regelt sich in der Regel eh von selbst durch schlichtes Ignoriertwerden) von Sternchen viel größer, von einer Instanz zu fliegen, wann man fortwährend versucht, seine Timeline zu „instagramisieren“.
Das Fediverse ist damit kein Raum für Sternchen. Und ich finde das unglaublich befreiend. Man überlebt kommunikativ im Fediverse nicht ohne inhaltliche Substanz. Und man bekommt daher aber auch viel inhaltliche Substanz. Klar, manchmal wird man mal von Grundsätzlichkeit überrollt. Und es fühlt sich oft weitaus weniger „lustbetont“ oder „herzlich“ oder nach heiler Welt an. Aber in bin eh jemand, der „Fun“ nicht kann – aber „Joy“ geht halt …
Unterrichtsvorbereitung und ‑material online
Grundlagen und Hintergründe
Viele Menschen schwören auf Notizapps zur Organisation von Fundstücken und Wissensartefakten. Ich werde damit nicht warm. Die dabei entstehenden Formate sind oft proprietär, schlecht in editierbare Formate konvertierbar und immer wieder gibt es Herausforderungen beim Umgang mit Multimedia- und sonstigen Dateien („Assets“). Die Suchmöglichkeiten verbleiben oft genug in der Kategorie „so lala“. Bei kommerziellen Anbietern werden nach Lockangeboten Preisschrauben angedreht, unnötige Features ergänzt, sinnvolle dagegen fallen weg oder die Entwicklung wird ganz eingestellt, weil man sich verkalkuliert hat. Souveränität in Bezug auf die eigenen Produkte sieht anders aus.
DokuWiki als Konsequenz
Alles, was mir wichtig ist, liegt daher in einem Textformat vor – kein Word, kein LibreOffice, kein PDF (außer als Asset). Eingebettet werden externe Formate (Audio, Video, Bild = Assets) durch entsprechende Verweise in diesen Textdateien. Ein System, welches das mustergültig umsetzt, ist DokuWiki. DokuWiki ist ein Wiki ohne externe Datenbank mit einem sogenannten „Flatfile-System“ und kümmert sich im Hintergrund z.B. um die Trennung von Text und Assets. DokuWiki ist sehr einfach zu installieren – einfach auf irgendeinen Webspace kopieren, der PHP unterstützt, Installationsroutine aufrufen, fertig. Genauso einfach kann man die Inhalte sichern: Einfach alles an Dateien herunterladen.
DokuWiki bietet:
- die Möglichkeit, eigene Seitenbereiche zu definieren, die eine eigene Navigationsleiste besitzen. So kann ich für Lerngruppen eigene Unterbereiche gestalten.
- die Möglichkeit, einzelne Bereich hinter einem Login zu verbergen. So können z.B. Schüler:innen selbst Wikiseiten gestalten, die nicht öffentlich sind.
- eine sauber strukturierte Ordnerstruktur im Hintergrund, die eine Weiternutzung aller Inhalte in anderen Systemen ermöglicht
- die Möglichkeit, jederzeit Inhalte als PDF oder ODT-Datei herunterzuladen, wobei der Download aus dem aktuellen Zustand der jeweiligen Seite generiert wird
- Erweiterbarkeit durch Plugins (automatische Übersetzung von Seiten, saubere Darstellung von Programmcode, verschiedene Arten von Boxen)
DokuWiki erfordert:
- die Bereitschaft, sich auf eine markdownähnliche Syntax einzulassen
- Leidensfähigkeit bei der Formatierung von Tabellen
- etwas Einarbeitungszeit bezüglich von Kontexten mit eigener Sitebar
- einen Platz bei einem Hoster, bei dem es betrieben werden kann (ab. ca. 1,- Euro pro Monat)
Es gibt durchaus auch WYSIWYG-Erweiterungen von DokuWiki, nur würde ich von einer Verwendung absehen, weil dann wieder irgendwelche unsauberen Elemente in den Textdateien vorkommen.
Organisation der Inhalte
Die Hauptinhalte werden in maximal drei Tiefen organisiert. Alles, was mir so über den Weg läuft, kommt ins Wiki. Für die Schüler:innen erstelle ich für jede Lerngruppe einen eigenen Bereich mit eigener Seitenleiste, die nicht zu den Hauptinhalten zurückführt. Dabei kann ich die Inhalte der Wikiseiten einfach per Copy&Paste kopieren, die Assets liegen nur einmal vor und werden innerhalb der Texte referenziert. Die Texte sind zwar dann doppelt vorhanden, fressen aber kaum Speicherplatz. Zudem gäbe es die Möglichkeit, dass zur Unterrichtszeit Änderungen vorgenommen werden, bei denen ich am Schuljahresende entscheiden kann, ob ich sie – wiederum per Copy&Paste – in die Hauptinhalte übernehme.
Medizinische Eingriffe vs. Schulentwicklung im Alltag
Mir ist nach zwei Jahren wieder eine alte Folie über den Weg gelaufen:Der Alltag in einer Schule ist geprägt von vielen Herausforderungen, zu denen man schnell eine Lösung finden will. Man möchte schnell eine Lösung finden, weil man weiß, dass sich ansonsten immer mehr Aufgaben und Dinge ansammeln, für die es eine Lösung zu finden gilt. Bei bestimmten Aufgabenstellungen wird diese Taktik verlässlich schnell zu einem Desaster, weil schlechte und schnelle Lösungen im Nachgang oft einen enormen Nachsteuerungsbedarf erzeugen können, der zu den Alltagsproblemen dann noch dazu kommt.
Deswegen macht man es in der Medizin oft anders: Selbst bei verhältnismäßig kleinen Eingriffen wird ein ziemlich hygienischer Aufwand betrieben: Rasur, Jodtinktur großzügig auf den Hautbereich der Operation aufgetragen, keimdichtes Abkleben mit sterilen Tüchern, OP-Schleuse mit leichtem Überdruck im OP-Bereich – die Vorbereitungen dauern dann meist 2x länger als der eigentliche Eingriff. Der Lohn sind i.d.R. vollkommen komplikationslos verlaufende Wundheilungen und eine zügige Entlassung aus dem Krankenhaus. Das hat sich so hinkonfiguriert, weil Fallpauschalen eben nicht z.B. zwei Wochen Antibiose und Nachbehandlungen abdecken. Daher „rechnet“ sich dieser Aufwand, obwohl er in hohen Prozentanteilen der Fälle wahrscheinlich nicht notwendig wäre.
Schule wird nach meiner Erfahrung oft aufgefressen von Prozessen, die vermeintlich schnell und einfach gelöst wurden und deren Nachsteuerungsbedarfe dann die ohnehin schon knappen Zeitressourcen vertilgen. Man scheut den anfangs unbestreitbar viel hören Aufwand, weil man an dieser Stelle nicht das gesamte Integral betrachten kann (Wirtschaft soll da ab einer gewissen Größe auch in einer ähnlichen Liga spielen).
Und nicht jeder Prozess verdient tatsächlich diesen Aufwand – aber wer sensibilisiert Leitungspersonal dafür? Gute Theorie gäbe es ja, z.B. mit dem systemischen Projektmanagement.
Blogparade #KIBedenken
Joscha Falck und Nele Hirsch haben zu einer Blogparade aufgerufen. Hintergrund ist, dass bei den beiden angesichts der Debatte rund um den Einsatz von KI im Kontext von Lehr-/Lernprozessen Entwicklungen auftauchen, die Nele und Joscha kritisch sehen. Ich zitiere die Punkte der beiden einmal im Volltext, damit auch die wenigen, die meinen Blog über RSS wahrnehmen nicht allzu viel querlesen müssen:
- In der KI-Debatte geht es zu viel um digitale Tools und um das Zeigen von Anwendungen, die an sich nicht besonders schwer zu bedienen sind. Dazu werden oft ganze Fortbildungstage veranschlagt. Es fehlt damit an Fortbildungszeit für Themen, die pädagogisch und gesamtgesellschaftlich angesichts der Krise unseres Bildungssystems und unserer Gesellschaft deutlich wichtiger wären.
- Der Fokus auf KI als Werkzeug steht dem Fokus auf Lernen im Weg. Aspekte der Kompetenzorientierung werden ebenso (zu) wenig in den Blick genommen wie fachdidaktische Fragen.
- Aufgrund der Omnipräsenz von KI und der erwünschten raschen Anwendung/Implementierung gerät die dringend nötige Veränderung der Lernkultur und Lehr-/Lernkonzepte wie beispielsweise das selbstgesteuerte Lernen oder Individualisierung in den Hintergrund. Die Verknüpfung mit KI scheint oft mehr „pädagogisches Feigenblatt“ als tatsächlicher Veränderungswille zu sein.
- Der empirische Beleg der Wirksamkeit von KI-Tools im Unterricht steht noch aus, weshalb didaktische Empfehlungen und angepriesene Tools aus unserer Sicht mehr Skepsis vertragen könnten.
- Die mit KI einhergehende (zurückgekehrte?) Toolifizierung in der Bildung versperrt den Blick auf die viel wichtigere Frage, wie wir gutes Lernen in einer zunehmend von KI-geprägten Welt gestalten können.
- Im Fokus stehen sehr oft Tools profitorientierter internationaler Konzerne, deren Geschäftsmodelle von Intransparenz geprägt sind. Auch mangels Alternativen fließt derzeit viel öffentliches Geld in privatwirtschaftliche Firmen anstelle Investitionen in eine demokratisch kontrollierte, öffentliche KI-Infrastruktur zu tätigen.
Die kurze Antwort
Das ist alles so. Aber ich weigere mich, das als ein Spezifikum von KI zu sehen. Es gilt für nahezu alle digitalen Entwicklungen, die wir in den letzten Jahren im Kontext von Schule gesehen haben. Man könnte den Begriff „KI“ durch beliebige andere austauschen. Interessant ist für mich vielmehr die Frage, warum sich Strukturen und Diskurse rund um Neuerungen wieder und wieder wiederholen. Die Thesen von Joscha und Nele beschreiben für mich letztlich Phänomene, die wir schon lange kennen.
Wenn man noch weiter abkürzen wollte, müsste man das gesamte Thema letztlich wieder einmal auf Haltung komprimieren.
- Medienbildung ohne informatisches Grundlagenwissen ist möglich, aber in meinen Augen sinnlos. Trotzdem will das Auto immer wieder zwar „gefahren“, aber keinesfalls „verstanden“ werden, weil es ja auf das Fahren ankommt – diese Haltung clasht recht hübsch mit den Anspruch an Mündigkeit im digitalen Raum.
- Mit Phänomenen wie den Outputs von generativer KI lässt sich auf unterschiedlichsten Ebenen viel Geld verdienen, etwa mit Klick&Wisch- oder Superpromptingkursen zu Tools. Dafür gibt es eine Nachfrage, die auch bedient wird, weil alle das Auto möglichst schnell fahren wollen – genau diese Haltung zementiert bestehende Muster.
- Der vorläufige Waffenstillstand mit der Digitalindustrie bestand darin, dass diese z.B. im Messengerumfeld alle Metadaten abgreift und die Inhalte der Nutzer:innen selbst verschlüsselt. Die Verschlüsselung war technisch so konzipiert, dass auch die Anbieter selbst nicht in Inhalte hineinsehen konnten. Die Nutzung von generativer KI in der Breite gewährt der Digitalindustrie jetzt Zugriff auf die Inhalte selbst und zwar auch auf solche, von denen sie bisher nie zu träumen gewagt hätte. Die reinen Autofahrer finden das cool, weil der Asphalt jetzt noch glatter wird. Eine kritische Haltung dazu erfordert recht anstrengend zu erwerbendes Wissen. Warum sollte man den langsamen Feldweg nehmen, auf dem auch noch Krimskrams herumliegt, der das Auto beschädigen kann? Warum selbst korrigieren oder Rückmeldungen geben, wenn doch eine von mir vorgepromptete KI zu 90% immer verfügbar ist und das ermüdungsfrei stoisch erledigt?
Meine Erfahrungen
Ich habe im November 2022 generative KI zu ersten Mal in einer Fortbildung im Kontext zum digitalen Schreiben vorgestellt. Das war wenige Wochen vor dem raketenhaften Aufstieg von ChatGPT. Bei den Teilnehmenden überwog damals das Gefühl des Entsetzens. In der Folge der Allgemeinverfügbarkeit von ChatGPT muss es in Niedersachsen von unterschiedlichen Stellen aus „Order“ gegeben haben, sich mit diesem Thema dienstlich auseinanderzusetzen. Ganz so schlecht scheinen meine Vorarbeiten und Ansichten nicht gewesen zu sein, sodass ich durch sehr viele teilweise sehr einflussreiche Kontexte gezogen bin. Überwog anfangs noch überwiegend die Angst, nunmehr ständig „betrogen“ zu werden verbunden mit dem Ruf nach formalen Lösungen, versachlichte sich das Thema nach und nach. Das ging nach meinem Eindruck bis dahin, dass ich teilweise eingeladen wurde, damit man den formalen Auftrag „von oben“ abgearbeitet hatte, um dann „back to topic“ gehen zu können.
Ich hatte keinen Auftrag, das zu tun, was ich da getan habe. Ich habe es als meinen Auftrag gesehen, Wissen weiterzugeben, mich selbst schlauzumachen und einzuarbeiten und dabei auch die ethische Perspektive mit einzubeziehen. Ich bin in der glücklichen und privilegierten Position, dass das Teil meiner Abordnung als medienpädagogischer Berater ist. Ich muss kein Geld oder Reisekosten nehmen. Das ist alles mit meinem Gehalt und den Reisekostenerstattungen abgegolten.
Aber zu der Sache mit dem Geld kommt noch etwas viel Entscheidenderes als Privileg: Sehr viele Menschen, die sich neben dem Lehrberuf für Fortbildung einsetzen, tun das, weil das ihnen viel Freude und Anerkennung bringt – vielleicht die Freude und Anerkennung, die in Schule selbst manchmal fehlen. Natürlich wird Anerkennung durch Reichweite und Erfüllung von Bedarfen mit erreicht und der Bedarf ist eben in der Breite oft das Autofahren (s.o.) – hier synonym für Toolifizierung stehend. Das trägt mit Sicherheit mit zu den Phänomenen bei, die Joscha und Nele beobachten.
Ich kann aus meiner doppelt privilegierten Position heraus „knötern“ und anderen das Spielzeug „KI“ auch einmal schmutzig machen.
Wie müsste für mich die ideale Fortbildung (nicht nur zu KI) aussehen?
Dazu habe ich zusammen mit einigen anderen ein kleines Schema entwickelt, was sich erstmal nach einer Binse anhört und sich sehr stark an das Frankfurt-Dreieck anlehnt.
Für mich waren daran drei Aspekte neu oder sind mir durch die Arbeit stärker bewusst geworden:
- Der Lebensweltbezug ist nicht nur für Schüler:innen wichtig.
- Jede Gruppe ist heterogen und erfordert eine innere Differenzierung
- Jede Gruppe hat Kompetenzen, die es zu nutzen und sichtbar werden zu lassen gilt
Ganz platt läuft das in meiner klassischen Fortbildung zu generativer KI folgendermaßen:
- Phänomene (= Produkte) generativer KI zeigen (Audio, Video, Bild etc.)
- Den Entstehungsprozess informatisch entzaubern – es ist letztlich Mathe.
- einige wenige Anwendungsbeispiele für Lernprozesse zeigen
- Unterschiedliche Tools mit unterschiedlichen Anforderungen selbst erkunden lassen
- Erfahrungsaustausch in der Gruppe und Transfer auf Unterrichtssituationen
Ein Seitenhieb zum Thema Demokratisierung von KI
Nele und Joscha beklagen, dass rund um KI das übliche Oligopol der Big5 entsteht und gerade im Bereich der Bildung mehr zivilgesellschaftliche Engagement notwendig wäre – zumindest verstehe ich die beiden so.
Um das Spielzeug schmutzig zu machen: KI ist letztlich nur Mathe, dummerweise immens aufwändige, komplexe Mathematik. Das Training eines Modells wird auf absehbare Zeit nicht zivilgesellschaftlich möglich sein. Alle frei verfügbaren Modelle sind vortrainiert und hinsichtlich ihrer Quellen auch nicht wesentlich transparenter als die kommerziellen Ansätze.
Wir werden als Medienzentrum demnächst eigene KI-Modelle betreiben, von Schüler:innen werden diese allerdings nur unter Aufsicht genutzt werden können, da nicht klar ist, welche Inhalte man diesen Modellen prinzipiell entlocken kann.
Wie komplex das Training eines Modells ist, kann man daran ermessen, dass selbst große Anbieter ihre Modelle nach Möglichkeit nicht mehr anfassen, wenn diese einen gewissen Reifegrad erreicht haben. Stattdessen werden Datenbanken aufgebaut, die Benutzer:innen beim Prompting „unterstützen“ und auch letztlich die ethischen Aspekte „umsetzen“. Das Modell selbst wird nicht mehr angefasst.
Daher ist aus heutiger Sicht aus informatischer Perspektive meiner Meinung nach die Demokratisierung von KI ein nettes Luftschloss. Weder gibt es die notwendigen Rechenkapazitäten noch das Know-How, aus beliebigen spezifischen Trainigsdaten ein stabiles Modell zu erzeugen.