„KI ist phantasielos“

Professor Schürmann, was denken Sie über KI?

Die Brisanz des Einsatzes von KI wird aktuell wohl am sichtbarsten am Fall von ChatGPT. Hier erstellt eine KI auf der Basis schon geschriebener und in die KI eingefütterter Texte automatisiert weitere Texte – einfach dadurch, dass man Fragen und Präzisierungen dieser Fragen in die Maschine eingibt. Die so produzierten Ergebnisse sind zugleich faszinierend und erschreckend. Faszinierend sind sie, weil sie in vielen Fällen kaum von eigenen Texten zu unterscheiden sind, oder sich, noch arger, die Frage stellt, ob man selbst einen so guten Text hätte schreiben können. Faszinierend auch, weil die Ergebnisse tatsächlich eigenständig anmuten, also gerade nicht nach Neusortierung schon bestehender Textbausteine riechen. Erschreckend sind sie, weil es nicht viel Phantasie braucht, um sich den Missbrauch und die Manipulationsmöglichkeiten vorzustellen. Die Unterscheidung von Fakt und Fake wird noch schwieriger, und wenn die eingefütterten Texte einen rassistischen Bias haben, dann auch die vermeintlich objektiven Ergebnisse. Die gute alte Hausarbeit wird wohl im Studium bald ausgedient haben. Wenn für Prüfende nicht mehr unterscheidbar ist, ob eine Maschine oder ein*e ­Student*in geschrieben hat, hat sich eine solche Prüfungsform erledigt – es sei denn, man setzt voraus, dass Student*innen von heute solch perfekte Texte nicht schreiben können. Kluge Student*innen würden dann in Hausarbeiten viel Unsinn verzapfen, um nicht in den Verdacht zu geraten, eine Maschine hätte für sie geschrieben. Aber wer prüft dann wie, ob sie solchen Unsinn tatsächlich mit Absicht geschrieben haben?

In der Süddeutschen Zeitung vom 7.12.2022 wurde diese Maschine aufgefordert, einen Witz zu erzählen. Von dieser Art müssten zukünftige Klausurfragen sein. Diese Aufforderung ist eine menschlich-intelligente Aufgabenstellung zur Prüfung der Reichweite Künstlicher Intelligenz. Um einen Witz zu erzählen und zu verstehen, kann man nicht bloß wortwörtliche Bedeutungen wiedergeben und neu kombinieren. Ein Witz lebt von seinem Hinter- oder Widersinn, von einer doppelbödigen Bedeutung. Eine Maschine kann Kalauer zum Besten geben, schon ausgelutschte Witze. Aber ihr fehlt die Phantasie für das, was zwischen den Zeilen steht. Doppelbödige Bedeutung kann man nicht auswendig lernen, man kann sie nur selbständig (re-)produzieren. Deshalb ist das Verstehen von Hintersinnigem das Privileg von Intelligenz, über die eine Maschine nicht verfügt. Was eine Maschine tut, und darüber kann man tatsächlich erschrecken: Sie versucht ihr Bestes, damit wir einen Witz nicht mehr von einem Kalauer unterscheiden können. Sie trifft dabei auf einen durch menschliche Unintelligenz bereiteten Boden, die uns seit langer Zeit verkaufen will, dass es keine Kriterien für Unterscheidungen mehr gibt. Was jemand für witzig hält, sei doch rein subjektiv. Was aber Unsinn ist. Dass mir persönlich Kalauer Freude bereiten, Dir aber nicht, das ist subjektiv. Dass mir Kalauer Freude bereiten, ich aber über einen Witz herzlich lache, über solcherart Unterschiede kann man begründet Auskunft geben.

Am 11.1.2023 konnte ChatGPT noch nicht auf Fragen zum Ukraine-Krieg antworten, da der Maschine noch keine entsprechenden Texte zur Verfügung standen. Aber ein Update stand in Aussicht. Dies nur als Hinweis, dass KI die prinzipielle Schranke hat, nicht über Phantasie zu verfügen. Die Anmutung neuer und eigenständiger Texte ist und bleibt ein Umgang mit dem Textmaterial, das in die Maschine eingefüttert wurde. Der Witz, den GPT der Süddeutschen Zeitung erzählt hat, war nicht besonders lustig. Das mag man noch amüsiert oder hämisch zur Kenntnis nehmen. Aber endgültig nicht mehr lustig wird es dann sein, wenn Krankheitsdiagnostik überhaupt gar nicht mehr mit Intelligenz erfolgt, sondern nur noch durch Maschinen berechnet wird. Die Unterscheidung zwischen einem Schnupfen und einem lästigen Naselaufen verlangt Intelligenz, denn der berechenbare Befund ist derselbe.

Text: Volker Schürmann