Zum Inhalt springen

Nutzung Künstlicher Intelligenz in der Bildung

Bericht über ein Interview-Versuch mit ChatGPT

Die wissenschaftliche Mitarbeiterin der MLU Dr. Grit Böhme hat versucht, mit dem textbasierten Chatbot ChatGPT ein Interview zu führen. Den Bericht über den Prozess könnt ihr hier lesen:

Beruflich führe ich normalerweise wissenschaftliche Interviews mit Menschen. Zum Thema Künstliche Intelligenz (KI) in der Bildung wollte ich aber auch mal die zurzeit vieldiskutierte KI ChatGPT selbst befragen. ChatGPT ist ein sprach- und textbasierter Chatbot, der vor allem für dialogische Anwendungen, als Ideengeber, Inspirationsquelle oder Hilfe bei der Vorstrukturierung von Texten genutzt wird.
Warum hier nicht das eigentliche Interview steht, sondern eine Nacherzählung davon? Zwar wird derzeit überall der flüssige und verständliche Schreibstil des ChatBots gelobt und ein Stück weit „versteht“ er auch, was im gemeinsamen Dialog bereits angesprochen wurde, manchmal – wie im vorliegenden Fall – sind die Antworten aber so schablonenhaft und redundant, dass es wirklich keinen Spaß macht, sich das Ganze durchzulesen und es auch schwer zu kürzen ist.

Aber kommen wir zum Interview selbst: Als erstes frage ich ChatGPT, wie KI in der Bildung eingesetzt werden kann. Er (ich habe mich für „er“ entschieden, weil es „der Bot“ ist) antwortet mir, dass es da zahlreiche Möglichkeiten gebe und zählt sogleich eine Liste von Beispielen auf: personalisiertes Lernen, das individuelle Lernbedürfnisse, -stile, Fähigkeiten und Interessen erkennt und daraufhin passendes Lernmaterial bereitstellt, automatische Bewertung von Schülerarbeiten (wobei er eine „objektive Bewertung“ verspricht), Frühwarnsysteme, um Schüler zu erkennen, die den Anschluss verlieren könnten, Sprach- und Übersetzungshilfen bei Sprach- und Lernschwierigkeiten, Unterstützung bei der Erstellung von Lehrmaterialien sowie Feedback zu Lernverhalten, -fortschritt, Leistung oder Interaktion mit Lernmaterialien durch die Analyse von Schülerdaten.

Im Anschluss setzt ChatGPT zu einem Exkurs über ethische, datenschutzrechtliche und soziale Fragen an, bricht aber unvermittelt mitten im Satz ab. Offenbar hat seine Antwort das nicht offiziell angegebene, aber von vielen User*innen diskutierte Zeichenlimit erreicht. Auf meine Nachfrage, warum er denn abgebrochen habe, entschuldigt er sich höflich, vervollständigt seine Antwort und betont, wie wichtig es sei, dass KI in Bildungseinrichtungen transparent, fair und verantwortungsvoll eingesetzt werde, man müsse Rechte und Privatsphäre von Schüler*innen respektieren und die Anwendungen vorher entsprechend sorgfältig prüfen.

Dieses Antwortformat kommt bei ChatGPT recht häufig vor und er wird es auch über das gesamte Interview hinweg immer wieder einsetzen: Einführung, eine Liste mit erläuterten Beispielen oder Aspekten zum Thema und am Ende eine kurze Diskussion, in der Grenzen der Aussage, Kontroverses oder Gegenargumente kurz angerissen werden, häufig ist es „irgendwas mit Ethik“. Ähnliche Formate sind auch bei Bloggern und Internetzeitungen beliebt, gerade die Listenform (sog. „listicles“, ein Kofferwort aus „list“ und „article“) erspart, sinnvolle Übergänge zwischen den einzelnen Punkten herstellen zu müssen und erleichtert es dadurch, Inhalte zu recyceln, die man anderswo gefunden hat. Und Inhalts-Recycling betreibt ChatGPT in diesem Interview recht ausgiebig.

Ich greife das von ChatGPT angesprochene Thema Personalisierung auf und frage ihn, wie die Vielfalt von Schüler*innenn, Studierenden und Lernenden in der Erwachsenenbildung abgebildet wird und wie die KI die besonderen Bedarfe von Lernenden berücksichtigen kann. Die Einführung-Liste-Diskussion, die ich zur Antwort erhalte, ähnelt in vielen Punkten der vorangegangenen Einführung-Liste-Diskussion – nur dass der Punkt „Barrierefreiheit“ hinzukommt (wahrscheinlich von „Vielfalt“ getriggert) und der „Irgendwas mit Ethik“-Teil diesmal darauf hinweist, dass KI Vorurteile und Ungleichheiten aus ihren Trainingsdaten widerspiegeln kann.

Ein weiterer neuer Punkt in der Liste ist „empathische Interaktion“, die auf die Emotionen und Bedürfnisse der Lernenden eingehen können soll. Nachdem mir die englische Fassung von ChatGPT schon mehrfach erklärt hat, dass sie keinerlei Emotionen spüren kann, weckt das mein Interesse. Ich bitte um genauere Erläuterung. Diesmal kommt die Antwort ohne Liste aus. Nach den Ausführungen zu Emotionserkennungstechnologien, die Tonfall, Wortwahl und Körpersprache der Lernenden vermessen, damit die KI dann im richtigen Moment passende motivierende Worte sagen kann, beruhigt mich aber immerhin der zuverlässig am Ende auftauchende Ethikteil, dass man solche Technologien auch kritisch sehen kann in Bezug auf ihre Genauigkeit und die mögliche Verletzung der Privatsphäre der Lernenden. Der letzte Satz zu Respekt gegenüber Rechten und Privatsphäre der Schüler*innen – verantwortungsvoller Umgang und so – gleicht dabei nahezu 1:1 dem letzten Satz aus der ersten Antwort von ChatGPT.

Auf meine Frage, welche Vorteile durch die Nutzung künstlicher Intelligenz in Schulen, Hochschulen und in der Erwachsenenbildung entstehen, erscheint diesmal mit sieben Punkten die bisher längste Liste. Sie enthält in etwas anderen Worten alles, was auch schon die Liste in der ersten Antwort enthielt. Hinzu kommt noch, dass Lerninhalte flexibel und in verschiedenen Formaten abgerufen werden können und dass – hier horche ich auf – „administrative Aufgaben“ automatisiert werden können „wie z. B. Bewertungen von Tests oder Korrekturen von Aufgaben“, um sich besser auf pädagogische Aufgaben konzentrieren zu können.

Ich widerspreche ChatGPT, dass das beides aus meiner Sicht durchaus ebenfalls zu den pädagogischen Aufgaben zählt, gerade auch, weil es ein wichtiges Feedback für die Lernenden ist. ChatGPT stimmt mir ausdrücklich zu und betont, wie schon im Pflicht-Ethik-Teil nach seiner letzten Liste, dass KI nur als Unterstützung für Lehrkräfte, nicht als deren Ersatz gesehen werden sollte und dass das Feedback der KI natürlich von der Lehrkraft überprüft werden müsse.

Meine letzte Frage, welche Bedeutung KI aus Sicht von ChatGPT für die Zukunft der Lehre in Schule, Hochschule und Erwachsenenbildung habe, hätte ich mir eigentlich sparen können, denn die darauffolgende Antwort-Liste enthält nichts, was im Interview nicht schon gesagt worden wäre – und die Bewertung von Tests ist hier auch schon wieder als „administrative Aufgabe“ eingeordnet …

Ich bleibe mit dem Gefühl zurück, dass es, bei aller beeindruckenden Leistung dieser KI, auch manchmal wirklich nerven kann, einen Dialog mit statistischen Mustern aus dem Internet zu führen. In Zukunft hat die „empathische Interaktion“ in solchen Momenten vielleicht ein paar aufmunternde Worte für mich.


Um euch selbst ein Bild davon zu machen, könnt ihr hier das vollständige Interview mit ChatGPT nachlesen.

 

Kontakt
Christian Müller
Gewerkschaftssekretär für Hochschulpolitik
Adresse Kleiner Berlin 2
06108 Halle (Saale)