Die sogenannte “Künstliche Intelligenz”

Geschätzte Lesedauer 4 Minuten

Ein kurzer Gedankengang im Anschluss an Kant über die Gründe dafür, dass die LLMs (large language models) nicht tatsächlich denken können.

Vor einigen Wochen fand eine Tagung über Kirchenlieder statt, an der eine kleine Gruppe von Studierenden aus Leipzig Gelegenheit hatte teilzunehmen. Ein Pop-Kirchenmusiker hielt einen im Vollumfang digital unterfütterten Vortrag über seine Arbeit. Als Teil davon wollte er auch kurz vorführen, wie ChatGPT bereits jetzt “in der Industrie” genutzt werde. Er hatte den Chatbot im Vorfeld über die Stimmung und Atmosphäre einiger Lieder aus dem Bereich des “Neuen Geistlichen Liedes (NGL)” befragt. Plötzlich ging ein Raunen durch den mit Zeitzeugen der Entstehung dieser Lieder gefüllten Vortragssaal: “Aber Siegried Fietz hat dieses Lied doch gar nicht geschrieben!” Der Chatbot hatte einen Song adäquat, überzeugend und sehr plausibel beschrieben, den es so gar nicht gab.

Mitten im Vortrag brach dann eine wilde Spekulation über den Grund für die völlige Desinformation auf der Leinwand los. Der Redner wusste selbst keine Antwort auf den Ursprung des Fehlers in seiner eigenen “PowerPoint”. Vielleicht hatte der Künstler den Song gecovert (hatte er nicht). Vielleicht war die Fehlinformation im Datensatz der “KI” bereits vorhanden (wohl kaum). Mit der Autorität des niedrigeren Alters stand ich auf und erklärte kurz, was man im Diskurs über “Künstliche Intelligenz” “Halluzinationen” nennt: automatisch generierter Text, der keinen offenbaren Bezug zu Realität und Plausibilität hat. So wie in diesem Fall. Diese peinliche Vorführung der Wunder der modernen Technik lässt mich seither allerdings nicht mehr los.

Einbildungskraft ist das Vermögen, einen Gegenstand auch  o h n e  d e s s e n  G e g e n w a r t in der Anschauung vorzustellen.

Immanuel Kant, Kritik der reinen Vernunft, B 151.

Abbildung: “Immanuel Kant, der über die assoziative Einbildungskraft nachdenkt, surrealistisches Porträt”, generiertes Bild von DALL­·E. Es handelt sich bei dem abgebildeten Gegenstand wohl um etwas so ähnliches wie Kant.

Kant (siehe Abbildung [?]) unterscheidet in der Kritik der reinen Vernunft (B 151­−B 152) die produktive und die reproduktive Einbildungskraft. Die produktive Einbildungskraft ist Teil des Wahrnehmungs- und Erkenntnisvorganges. Sie stellt die Einheit her zwischen der sinnlichen Anschauung und dem inneren Sinn. In der Einbildung werden die Kategorien auf die Sinneseindrücke angewendet. So wird menschliche Erkenntnis überhaupt erst möglich. Die reproduktive Einbildungskraft hingegen hat nach Kant keinen Anteil an der “Erklärung der Möglichkeit der Erkenntnis a priori”, da sie völlig den “empirischen Gesetzen, nämlich denen der Assoziation, unterworfen ist”.

Chatbots, die auf LLMs aufbauen, wie ChatGPT, funktionieren nach dem Prinzip eines “Stochastischen Papageis“:

Ein “Stochastischer Papagei” ist ein Gedankenexperiment, das verwendet wird, um den Unterschied zwischen zufälligen Mustern und wahrem Verständnis zu veranschaulichen. Ein solcher Papagei würde zufällig Worte aussprechen und könnte sogar Sätze bilden, die grammatisch korrekt sind, aber keinerlei Bedeutung haben. Es handelt sich also um eine Art künstlicher Intelligenz, die in der Lage ist, komplexe Muster zu imitieren, ohne jedoch ein tiefes Verständnis für das zugrunde liegende Konzept zu haben.

Von ChatGPT generierter Text.

Im Hintergrund steht ein großer, komplizierter Prozess der textlichen Wahrscheinlichkeitsrechnung. Dieser Prozess ist das LLM. Die “end user” sehen am “front end” stattdessen einen Chatbot, der scheinbar wie ein menschlicher Gesprächspartner agiert: Ich stelle eine Frage, die “Intelligenz” antwortet. Ich interagiere aber eben nicht mit einem Bewusstsein, sondern mit automatisiertem, algorithmisiertem Text per se. Lesbarer Text, der durch Programmtext aus Ursprungstext neu zusammengesetzt wurde. Der Programmtext und der Ursprungstext sind letzten Endes menschlich produzierter Text, der lesbare Text am Ende jedoch ist eine assoziative Zusammenstellung, mehr nicht. Die “KI” weiß nichts, da sie keinen über Text hinausgehenden Zugang zu Realität in irgend einem Sinne hätte, der Fakten überprüfbar macht; sie hat Zugriff nur auf Text (und nicht einmal Bedeutung, sondern Wortverteilungswahrscheinlichkeiten), sie ist sogar selbst nichts als bloß eine Art Hypertext; und sie denkt nicht, denn sie hat keine produktive Vorstellungskraft.

Man kann diese automatisierten Textwerkzeuge schon sinnvoll nutzen, man darf sie nur nicht mit menschlichen Wesen verwechseln. Die Verführung des anthropomorphen Denkens liegt in diesem Fall natürlich besonders nahe, weil der entstehende Text dem Muster menschlicher Kommunikation folgt, es steht aber kein denkendes Subjekt dahinter. Die Produktion und Vermittlung von Wissen bleibt von echter menschlicher Erkenntnis abhängig. Für die weitere Kulturgeschichte des Kirchenliedes steht die Verwechslungsgefahr von automatisiertem Text mit kulturindustriellen Erzeugnissen des Markenzeichens “Pop-Kirchenlied” wohl insbesondere für die Notwendigkeit, in der Religion authentischen Ausdruck in echter, menschlicher Gemeinschaft vorzutragen.

Abbildung: “Ein Heiliger schaut den verheißenen Computer, Stahlstich im Stil von Gustav Doré”, generiertes Bild von DALL­·E. Es könnte allerdings auch die verheißene Kaffeemaschine sein.

Falsche Ängste und angebliche Verheißungen

Ein Vortrag aus der Reihe des Studium Generale in Leipzig von Jasmin Mayan zum Thema der “Künstlichen Intelligenz” trägt den Titel “Zwischen Dystopie und Verheißung”. Der Einladungstext stellt fest: “„Künstliche Intelligenz“ ist aufgrund der neuesten Entwicklungen in aller Munde. Zweifellos wird sie auf unser aller Leben noch großen Einfluss ausüben. Doch was ist KI überhaupt und welche Potentiale und Gefahren birgt sie?”

Diese Darstellung entspricht etwa dem Modus des allgemeinen Nachdenkens über “KI”. Geschürt von als wissenschaftliche Artikel und offene Briefe getarnten Werbetexten verbreiten sich Sorgen und Hoffnungen über Arbeitsentlastungen und Arbeitslosigkeit, Verflachung der Intelligenzhierarchie und zunehmende online Desinformation (z.B. über die Autoren von Kirchenliedern), allgemein gesellschaftliche Effizienzsteigerung und Wegrationalisierung des Menschlichen etc.

Die Vermutung liegt nahe, dass es sich um einen religiös-spekulativen Modus handelt, der durch diese spezifische Kombination von Angst und Hoffnung ungerechtfertigterweise erzeugt und zur wirtschaftlichen Legitimation (etwa, um “funding” sicherzustellen) missbraucht wird. Tatsächlich ist es die dritte “tech bubble” in enger Abfolge nach “BitCoin” und “NFT”, deren Erscheinung allerdings noch auf den Finanzsektor und die Kunstwelt beschränkt war und sich überwiegend allein im Internet abspielte. Die “KI” finden wir mittlerweile bereits in der Presse, wo z.B. irrwitzig schlechte, offensichtlich generierte Editorials zur Belustigung dienen sollen, oder auf Tagungen über Kirchenlieder.

Das Bewusstsein über “ChatGPT” hat sich rasend schnell in der Gesellschaft ausgebreitet. Die Bedingungen dafür sind ideal: Die Corona-Pandemie ist gerade überwunden, da zerbricht die internationale wirtschaftliche Ordnung ein Stück weit und die Folgen des Klimawandels werden immer unübersehbarer. Den Menschen geht es mit Blick auf die Zukunft, die sie sich ausmalen, verglichen mit dem Stand noch vor wenigen Jahren, also psychisch, finanziell und prospektiv deutlich schlechter.

Im Gegensatz zu “NFT” und “BitCoin” ist die Nutzung von “ChatGPT” zudem mit keinem Risiko verbunden (da kostenlos und unverbindlich) und unmittelbar beeindruckend (wenn auch bei näherem Hinsehen oft eigentlich unpraktisch). Die breite Gesellschaft kennt und “nutzt” dieses Phänomen nun also und ist gewillt, zu glauben, dass ein unbestimmt großes Potential in dem fehleranfälligen Chatbot steckt, dessen Innenleben anscheinend letztlich nicht einmal die Computer-Ingenieure verstehen können, die das Programm entwickelt haben. Dieser Glaube an das Mysterium unbestimmten Potentials, gemischt mit tremendum et fascinans, Angst und Hoffnung vor Dystopie und auf Verheißung, in der schwierigen Zeit, in der wir Leben, erklärt mir, wie man überhaupt auf die Idee kommt, in einem Vortrag über Kirchenlieder “ChatGPT” vorzustellen.

(Auch die Bilder in diesem Beitrag sind selbstredend keine Kunst, sie sehen Kunst nur zum Verwechseln ähnlich.)

Johannes Böckmann

Hinterlasse eine Nachricht