notifications
Kolumne «Aussichten»

ChatGPT versteht nur Bahnhof

Eine neue Art und Weise, über künstliche Intelligenz nachzudenken, könnte unsere Technologiebranche zum Besseren verändern.
Edy Portmann.
Bild: Bild: zvg

Der Universalgelehrte Gottfried Wilhelm Leibniz (1646–1716) skizzierte in seiner Dissertation zur «Kunst der Kombinatorik» bereits vor 350 Jahren mit regelbasierten Kombinationen von Symbolen seine Theorie zur Automatisierung von menschlichem Denken. Gemäss Oscar Schwartz, einem Wissenschaftsjournalisten aus Melbourne, war das Hauptargument der Dissertation, dass menschliche Gedanken Kombinationen von grundlegenden Konzepten sind - ähnlich wie Sätze Kombinationen von Wörtern und Wörter wiederum Kombinationen von Buchstaben sind.

Leibniz glaubte, so Schwartz, dass er als Forscher in der Lage wäre, nach Bedarf neue Gedanken zu entwickeln, wenn er nur einen gangbaren Weg fände, diese Konzepte symbolisch darzustellen und so eine Methode zu entwickeln, um sie logisch zu kombinieren.

Ein erster Kritiker dieser künstlichen und sehr mechanischen Art von Sprachverarbeitung war der Schriftsteller Jonathan Swift (1667–1745), der in seinem 1726er-Buch «Gullivers Reisen» das schematische Denken von Leibniz aufs Korn nimmt. Darin besucht Gulliver in einer Szene die «Grosse Akademie von Lagado», wo er auf eine «Leibniz’sche Maschine» stösst: Studenten kurbeln an deren Seite, wodurch sich Holzwürfel drehen und infolgedessen Symbole zu neuen Kombinationen zusammensetzen. Ein Assistent schreibt die Ergebnisse der «Denkmaschine» ab und übergibt sie einem Professor. Dieser erklärt: «Dank diesem Prozess können wir, ohne Genie oder Studium, Bücher über Philosophie, Poesie, Politik, Gesetze, Mathematik und Theologie schreiben.»

Die Szene ist Swifts Parodie auf Leibniz’ Gedankengenerierungsmaschine. Genauso wie weitere wissenschaftliche Studien der Lagado-Akademie, wie etwa ein Sprachprojekt, welches den Zweck verfolgt, Verben und Partizipien zu beseitigen, oder eines, welches alle Wörter abschaffen will, hält Gulliver solche Maschinen für Nonsens.

Swift drückt mit seiner Parodie aus, dass unsere Sprache kein formales System ist, das menschliches Denken repräsentiert, sondern eine ambivalente Ausdrucksmethode, die einzig und allein im Kontext, in dem sie verwendet wird, Sinn ergibt. Damit Maschinen Sprache erzeugen können, bräuchten sie mehr als nur Regeln und Algorithmen; sie bräuchten die Fähigkeit, die Bedeutung der Sprache zu verstehen. Und das kann weder die Leibniz’sche noch die Lagado-Maschine.

Während Datenwissenschaftler, Ingenieure für maschinelles Lernen und KI-Forscher an immer raffinierteren Sprachmodellen à la ChatGPT entwickeln, einem Beispielalgorithmus, welcher Sätze auf Bestellung schreiben kann, erinnern ihre Debatten immer noch frappant an die von Leibniz und Swift. Dieses von der Firma OpenAI entwickelte Chatprogramm ist in Wirklichkeit nur eine Art Neuauflage von Wikipedia mit mehr Daten, welche dank maschinellen Lernalgorithmen neu zusammengestellt wurden. «Können wir», so gibt Schwartz mit einem Hinweis auf solche Algorithmen zu bedenken, «einer KI die Fähigkeit verleihen, uns zu verstehen?»

Meiner Meinung nach lässt sich ChatGPT eher als eine intelligente Art Zusammenspiel verstehen, in der uns Maschinen zur Hand gehen. Denn ihr zugrunde liegendes Sprachmodell «GPT» (engl. «Generative Pretrained Transformer») enthält Auswertungen, wie Worte im unendlichen Ozean unserer Onlinetexte, die das Programm verarbeitet hat, zusammenkommen. So eine Art und Weise, über künstliche Intelligenz nachzudenken, in der diese wieder als Werkzeug gesehen wird, wäre eine sehr gute Gelegenheit, unsere Technologiebranche zum Besseren zu verändern.

Der gebürtige Luzerner Edy Portmann ist Informatikprofessor am Human-IST-Institut der Universität Freiburg.

Kommentare (0)