×

Zitiervorschlag

ChatGPT im Kontext der frühkindlichen Bildung

Ute Schmid

 

Das Thema Künstliche Intelligenz (KI) hat seit der Veröffentlichung von ChatGPT im November 2022 ein weiteres Mal sehr viel Aufmerksamkeit erhalten. Während der Hype um Deep Learning etwa ab 2018 vor allem Diskussionen um Anwendungen in der Medizin und der Industrie ausgelöst hat, hat ChatGPT die Aufmerksamkeit auf KI-Anwendungen in der Bildung gelenkt. Dabei standen vor allem die Themen Hausarbeiten und Prüfungen in Schulen und Hochschulen im Mittelpunkt des Interesses, da gezeigt werden konnte, dass ChatGPT bei zahlreichen Anforderungen, etwa beim Schreiben von Aufsätzen, durchaus mit Studierenden sowie Schülerinnen und Schülern mithalten kann. Nach anfängliche Rufen nach einem Verbot bei notenrelevanten Leistungen, wurden zunehmend eher die Potentiale von KI-Werkzeugen im Bildungsbereich erkannt.

Da ChatGPT vorwiegend als Schreibwerkzeug, zum Generieren von Texten, genutzt wird, ist eine direkte Interaktion von Kindergartenkindern mit ChatGPT weniger relevant. Allerdings können textuelle Ein- und Ausgaben mit Systemen kombiniert werden, die Text in gesprochene Sprache umwandeln. Eine neue, allerdings kostenpflichtige, Version von ChatGPT bietet diesen Service auch direkt an. Für das pädagogische Personal können Textgeneratoren wir ChatGPT durchaus hilfreiche Anwendungen bieten, insbesondere als Unterstützung beim Schreiben von Elterninformationen und bei der Dokumentation. Um ChatGPT sinnvoll zu nutzen, sollte man ein grundlegendes Verständnis davon haben, wie das System arbeitet, was es leisten kann und wo seine Grenzen sind.

ChatGPT ist ein vom Unternehmen OpenAI, das insbesondere von Microsoft finanziert wird, entwickeltes Dialogsystem. Es basiert auf einem sogenannten großen Sprachmodell – dem Generative Pretrained Transformer (GPT). Transformer sind eine spezielle Art von neuronalen Netzen, die die Grundlage für sogenannte Generative KI-Modelle liefern. Während viele andere Netzarchitekturen zur Klassifikation genutzt werden, etwa um Objekte in Bildern zu erkennen, ermöglichen generative Modelle das Erzeugen von Inhalten – Text, aber auch Bilder oder Videos.

GPT besteht aus einer sehr großen Menge von Informationseinheiten (zum Beispiel Worte), die mittels Übergangswahrscheinlichkeiten miteinander verbunden sind. Beispielsweise kann nach der Folge „Die junge“ nicht das Wort „Ball“ kommen, viele andere Worte wären möglich, etwa „Katze“. Das Sprachmodell hinter ChatGPT wurde aus einer sehr großen Menge von Texten und Programmcode, die im Internet verfügbar sind, trainiert. Ganz Wikipedia macht etwa 5% der Trainingsdaten aus. Beim Aufbau des Netzes wurden die Quellen, aus denen die Information entnommen wurde, nicht mitgespeichert. Vermutlich sind auch Inhalte eingeflossen, die urheberrechtlich geschützt werden müssten. Es ist kein Rückbezug auf die ursprünglichen Quellen möglich, die Inhalte sind über alle Quellen gemischt in die Knoten und Verbindungen des Netzes eingeflossen. Beim Training wurde auch nicht geprüft, ob eingeflossene Inhalte sachlich korrekt sind oder nicht. Man kann davon ausgehen, dass in Bereichen, über die sehr viele Menschen sehr viel im Internet schreiben, entsprechend auch viel unqualifizierte Information in GPT-Eingang gefunden hat. 

Wenn wir ChatGPT etwas fragen, zum Beispiel „Was gibt es für natürliche Mittel gegen Hyperaktivität“, dann liefert es eine sehr gut formulierte Antwort. Ob die gegebenen Informationen aber seriös sind, müssen wir selbst beurteilen. Nutzen wir eine Suchmaschine, werden uns die entsprechenden Webseiten angezeigt. Wenn wir medienerfahren sind, können wir aus der Art der Seite auf die Vertrauenswürdigkeit der Information schließen. Landen wir etwa auf der Seite einer Universitätsklinik, bei der sich eine Forschungsgruppe mit dem Thema „Hyperaktivität“ befasst, können wir der Information mehr vertrauen, als einer Seite von einem Pharmakonzern und wohl auch einer Seite von einem Heilstein-Shop. Dem von ChatGPT generierten Text sieht man dagegen nicht an, aus welchen Quellen die Information ursprünglich stammte. Entsprechend gehört zu einer sinnvollen und sicheren Nutzung von ChatGPT, dass wir lernen, solche Texte kritisch zu prüfen.

Dass ChatGPT so gut formulieren kann und auf sehr viele Anfragen korrekte Antworten geben kann, liegt an der Größe des Netzes und an der Länge von Wortketten, die das System „im Blick“ hat. GPT wurde mit Hunderten von Milliarden von Worten trainiert und benötigt 800 Gigabyte Speicher. Man schätzt, dass das Training von GPT3 552 Tonnen CO2 verursacht hat. Auch die Nutzung solcher Netze verbraucht sehr viel Energie. ChatGPT wurde als Dialogsystem mit dem Transformernetz kombiniert. Auch die Dialogführung basiert auf maschinellem Lernen. Damit möglichst verhindert werden kann, dass unerwünschte Inhalte (etwa Hass und Hetze) ausgegeben werden, werden die generierten Texte gefiltert, wobei die Filter ebenfalls gelernt wurden. Hierzu wurden vor allem Arbeitskräfte aus Billiglohnländern herangezogen, die in unzähligen Texten die toxischen Inhalte für das Training der Filter markiert haben.

Inzwischen liefert ChatGPT bei der Ausgabe von Informationen oft eine Art Warnhinweis mit. Fragt man etwa nach Informationen aus dem Gesundheitsbereich, wird man aufgeklärt, dass ChatGPT kein spezielles Wissen dazu hat und es wird geraten, einen Arzt aufzusuchen. Durch die sprachlich sehr guten Formulierungen und den dadurch entstehenden sehr natürlich wirkenden Dialog, sind wir schnell versucht, ChatGPT zu anthropomorphisieren und dem Systeme eine allgemeine Intelligenz und vielleicht sogar Bewusstsein und Emotionen zuzuschreiben. Man muss sich aber im Klaren sein, dass die Ausgaben nur aufgrund einer Aneinanderreihung von Zeichenketten entstehen und dass ChatGPT kein Wissen über die Welt und auch kein Fachwissen besitzt. Manche bezeichnen solche Systeme als „stochastische Papageien“.

Hat man diese grundsätzliche Vorgehensweise von ChatGPT verstanden, so kann es für viele Anwendungen als nützliches Werkzeug genutzt werden. Mit etwas Übung, wie man ChatGPT mit Information versorgt, dem sogenannten Prompting, kann es helfen, Texte zu generieren, Zusammenfassungen oder Übersetzungen zu erstellen. Ein Elternbrief ist so schnell erstellt. Eine weitere Einsatzmöglichkeit im Kindergarten wäre, vorhandene Texte in einfache Sprache umformulieren zu lassen. Will man mit Kindern über ein aktuelles Thema sprechen, könnte man hier einen Zeitungsartikel als Ausgangspunkt nehmen und ChatGPT nutzen, um die Information kindgerecht zu formulieren. In Kombination mit einem System, das Text in gesprochene Sprache umwandelt, kann ChatGPT helfen, Kindern mit anderen Mutterspachen, die Kommunikation zu erleichtern oder auch die deutsche Sprache zu üben. Schließlich können Kinder über solche Sprachschnittstellen auch direkt mit ChatGPT interagieren, etwa um sich mit Ideen für Spiele oder Projekte anregen zu lassen. Für die frühe Bildung sind auch Bildgeneratoren wie Dall-E als kreatives Werkzeug geeignet. Allerdings sollten die Kinder vorher anschaulich über die Funktionsweise von Generativen KI-Systemen informiert werden und das pädagogische Personal sollte immer wieder deutlich machen, dass diese Systeme nicht auf die Art intelligent sind, wie wir Menschen, sondern Ausgaben einfach durch Kombination von Mustern erzeugt werden.

Autorin

Ute Schmid, Universität Bamberg, https://www.uni-bamberg.de/en/cogsys/schmid/

Forschungsgruppe Elementarinformatik, https://www.uni-bamberg.de/feli/