Bild: Schüler:innen spielen Hexapawn – eine Simulation, wie Computer zu lernen scheinen.
Wenn das System nur auf Statistik beruht, kann es keine Wahrheit kennen. Es kann nur Muster replizieren.
Eine Maschine hat keine Moral.
Wir leben in einer Zeit, in der Maschinen sprechen und sich viele Menschen bei Alltagsproblemen lieber auf den Output von KI-Systemen verlassen als auf den Rat anderer Menschen. Die aktuelle Debatte um Künstliche Intelligenz in der Schule schwankt oft zwischen blinder Euphorie und tiefer Skepsis. Doch während wir darüber diskutieren, ob ChatGPT Hausaufgaben schreibt, übersehen wir oft eines der Kernprobleme: die Anthropomorphisierung. Wir neigen dazu, der KI menschliche Fähigkeiten wie «Verstehen», «Wollen» oder «Denken» zuzuschreiben. Das ist eine Gefahr. Wenn Kinder und Jugendliche eine Maschine als ein Gegenüber wahrnehmen, das «klüger» ist als sie selbst, schwindet nicht nur die eigene Souveränität, sondern es entsteht auch die Frage: «Warum sollen wir überhaupt noch lernen, wenn KI alles besser versteht und besser ausdrücken kann?» Umso wichtiger ist es, das Phänomen KI zu entzaubern. Das Ziel muss sein, KI nicht als magische Blackbox zu konsumieren, sondern sie als ein mechanisch-mathematisches Konstrukt zu durchschauen.
Drei Ebenen von KI in der Bildung
Wir halten bei der Vermittlung von KI-Kompetenzen an Schüler:innen drei Ebenen für wichtig, in denen es um die Fragen geht, wie KI funktioniert, wie sie wirkt und wie sie sinnvoll benutzt werden kann. Die dritte, also die instrumentelle Ebene, wird in der aktuellen politischen Debatte um KI in der Bildung stark überbetont, die anderen beiden Ebenen werden vernachlässigt. Das Papier der Ständigen Wissenschaftlichen Kommission der Kultusministerkonferenz zu Large Language Models (LLMs) ist dafür ein Beispiel. Unterstützenswert ist im genannten Papier die Forderung, dass basale Lese- und Schreibkompetenzen zuerst gefördert werden sollten, bevor LLMs zum Einsatz kommen. Empfohlen wird aber dann nur ein «Lernen mit LLMs», statt zuvor oder begleitend auch ein «Lernen über LLMs» einzubeziehen.
Aus unserer Sicht ist das ein Manko, weil Ebene eins und zwei große Bedeutung für einen mündigen Umgang mit KI haben. Weil wir langfristige Auswirkungen der KI-Nutzung auf Lernende kennen müssen, um überhaupt informierte Entscheidungen über die (Nicht-)Nutzung treffen zu können. Mit der Studie Your brain on ChatGPT des Massachusetts Institute of Technology werden nachteilige Auswirkungen der Nutzung von Large Language Models, die viele Pädagog:innen bereits beobachtet hatten, wissenschaftlich untermauert: Denkfähigkeit und Gedächtnisleistung sind in Gefahr. Andere Studien zeigen negative Auswirkungen auf kritisches Denken. Und das ist erst der sichtbare Teil der negativen Wirkungen vor dem Bildschirm. Ebenso wichtig ist es, hinter den Bildschirm zu schauen. Beispiele sind die ökologischen Folgen wie der hohe Energieverbrauch und die sozialen Aspekte wie die Ausbeutung von Daten-Arbeitenden im globalen Süden während der Trainingsphase von KI-Modellen.
Lernen, was KI (nicht) ist
Doch zurück zur ersten Ebene. Der beste Weg zur Entmystifizierung führt paradoxerweise weg von den Endgeräten. Der Ansatz Computer Science Unplugged, also Informatik ohne Strom, ermöglicht es, die Logik hinter der Technik haptisch und sozial erfahrbar zu machen. Durch die Entschleunigung der Abläufe im Realen und die spielerische Herangehensweise können deutlich mehr Schüler:innen an die Thematik anknüpfen. KI zu verstehen, ist auch und gerade für diejenigen wichtig, die sich für schlecht in Mathe halten und Informatik bei erster Gelegenheit abwählen. Wenn dann die KI-Prinzipien mit Streichholzschachteln, Murmeln oder Zetteln nachgespielt werden, erleben sie: Hier denkt niemand. Hier wird gerechnet, sortiert und gewichtet. Es ist reine Mechanik, auch wenn sie rasend schnell abläuft.
Wenn Streichholzschachteln «lernen»
Ein klassisches Beispiel, um das Prinzip des sogenannten Feedback-Lernens zu demonstrieren, ist das Spiel Hexapawn, das bereits 1962 von dem US-amerikanischen Wissenschaftsjournalisten Martin Gardner entwickelt wurde. Dabei treten auf einem 3x3-Feld ein Mensch und ein «Streichholzschachtel-Computer» gegeneinander an. Der Computer besteht aus einer Reihe von Streichholzschachteln. Jede Schachtel repräsentiert eine mögliche Spielsituation. In den Schachteln liegen farbige Perlen, die für verschiedene Spielzüge stehen. Den ersten Zug macht der Mensch. Danach würfelt der oder die Bedienende des Computers für die aktuelle Situation zufällig eine Perle aus der entsprechenden Schachtel heraus. Die Farbe der Perle bestimmt seinen Zug. Gewinnt der Computer, wird er belohnt. Das heißt, die Perle bleibt in der Schachtel. Verliert er, wird er «bestraft». Die Perle des letzten Zugs wird also entfernt. Auf diese Weise kann er diesen falschen Zug, der zum Verlieren führte, nicht mehr machen.
Nach einigen Partien wird der Schachtel-Computer unschlagbar. Die Schüler erleben: «Lernen» bedeutet bei einer KI lediglich das Anpassen von Wahrscheinlichkeiten basierend auf Erfolg oder Misserfolg in der Vergangenheit. Es gibt keine Einsicht in die Spielregeln, kein strategisches Genie – nur eine statistische Auslese.
Ein Netzwerk zum Anfassen
Während Hexapawn das Feedback-Lernen begreifbar macht, zielt das logische Netzwerk, von den Entwickler:innen irreführenderweise Brain in a Bag getauft, auf das Verständnis für logische Verknüpfungen innerhalb eines Netzwerks von Signalweitergabe ab.
Schüler:innen schlüpfen in diesem Spiel in die Rolle einzelner Processing Units (PUs). Sie sind durch Schnüre miteinander verbunden. Jede PU hat eine einfache Aufgabe: Die PUs der Input-Ebene empfangen optische Signale, die sie mit einem «korrekten» optischen Signal vergleichen. Stimmen Input und Vorgabe überein, senden sie ein Ja-Signal nach vorne zur nächsten Ebene von PUs. Diese empfangen eine andere Art von Signalen, nämlich als Ja-Signale Becher oder leere Klopapierrollen, die an Schnüren von einem PU zum nächsten gesendet werden. Erst wenn die Summe der Signale einen gewissen Schwellenwert überschreitet, gibt es ein Ja-Signal an das nächste PU.
Es werden verschiedene Spielkarten hochgehalten und das Netz reagiert entsprechend. Die restlichen Schüler:innen kennen aber die Anleitungen nicht und müssen herausfinden, wie das Netz funktioniert.
Die Schüler:innen begreifen dadurch, dass eine KI kein Wissen speichert wie ein Lexikon. Stattdessen besteht sie aus Milliarden von gewichteten Verbindungen. «Intelligenz» ist hier nichts anderes als die korrekte Weiterleitung von Impulsen durch ein System von Schwellenwerten.
Muster statt Wahrheiten
Wer versteht, dass ein neuronales Netz lediglich Wahrscheinlichkeiten berechnet, wird dessen Antworten gegenüber kritischer. Wenn das System nur auf Statistik beruht, kann es keine Wahrheit kennen. Es kann nur Muster mit Wahrscheinlichkeiten abgleichen. Eine Maschine hat keine Moral. Die Verantwortung für das Ergebnis liegt immer beim Menschen, der die Daten auswählt und die Maschine programmiert. Während die KI in der Mustererkennung unschlagbar ist, fehlt ihr die Fähigkeit zur Empathie, zur ethischen Abwägung und zum echten schöpferischen Impuls aus dem Nichts.
Mehr als bloße Bedienkompetenz
In der Waldorfpädagogik geht es darum, die Schüler:innen auf dem Weg zu mündigen Bürger:innen, zu Zeitgenoss:innen zu begleiten. Dazu gehört auch eine digitale Mündigkeit, die weit über die bloße Bedienkompetenz hinausgeht. Wenn wir KI im Unterricht «unplugged» behandeln, können wir den Schüler:innen die Angst vor dem Unbekannten und die Ehrfurcht vor der vermeintlichen Übermacht der Algorithmen nehmen.
Wir ermöglichen ihnen Lernerfahrungen, die sie begreifen lassen, dass hinter der glänzenden Oberfläche der Apps und Chatbots nur Mathematik und Logik stecken. Damit möchten wir sie befähigen, die Technik als das zu nutzen, was sie ist: ein Werkzeug. Nicht mehr, aber auch nicht weniger. Urteilskraft, Empathie und Moralität sind menschliche Eigenschaften.
Im Rahmen eines KI-Thementags befasste sich eine zwölfte Klasse mit dem Spiel Hexapawn und dem logischen Netzwerk. Im Evaluationsbogen schrieb ein Schüler unter die Rubrik «Das habe ich heute gelernt»: « … dass KI kein denkfähiges Wesen ist, sondern wirklich nur eine Maschine.»
Kommentare
Es sind noch keine Kommentare vorhanden.
Kommentar hinzufügen
Vielen Dank für Ihren Kommentar. Dieser wird nach Prüfung durch die Administrator:innen freigeschaltet.