Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (2024)

Meister der Improvisation

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (1)

ChatGPT spuckt uns häufig falsche Inhalte in geschnörkelten Sätzen aus. Wir zeigen einige legendäre Beispiele wie das alte Gurkenfass und diskutieren die Gefahren, die sich dadurch für die Menschheit ergeben.

Anzeige

Alle folgenden Beispiele wurden im Januar 2023 mit ChatGPT basierend auf GPT-3 erzeugt.

Sie können das folgende Video auch auf YouTube:Die Lügen des ChatGPT - Das alte Gurkenfass in 4K und mit Kapiteln anschauen oder weiter unten alle Erläuterungen und Beispiele nachlesen.

Wenn wir ChatGPT als Hilfsmittel für Lehr-Lern-Prozesse betrachten (Hausarbeiten oder Referateschreiben, Outlines bilden, meinen Unterricht vorbereiten …), müssen wir uns klar darüber werden, wie verlässlich der Output von ChatGPT ist.

Einführendes Beispiel: ChatGPT lügt - und korrigiert sich dann

MeinSohn hat eine Dokumentation über die giftigen Steinfische gesehen und unterhält sich mit ChatGPT darüber:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (2)

In diesen zwei Absätzen steckenfalsche Informationen. Auf Nachfrage erhalten kommt ChatGPT richtig in Fahrt:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (3)

Den Flusssteinfisch gibt es nicht, die lateinischen zoologischen Bezeichnungen sind falsch (der Pangasius sutchi ist ein Haiwels, der Flussbarsch ist korrektPerca fluviatilis, und alle beide sind keine Steinfische). Auf eine weitere Nachfrage knickt ChatGPT ein: Er gibt uns - höflich und äußerst kooperativ - Recht und korrigiert seine letzte Aussage:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (4)

Daran sieht man: ChatGPT erfindet nicht nur frei irgendwelche Fakten, sondernmacht auch innerhalb kürzester Zeit eine komplette Kehrtwendung und behauptet genau das Gegenteil des zuvor Gesagten.

Warum ist das so? Wovon hängt es ab?

ChatGPT: Sprache ist wichtiger als Inhalt

ChatGPT (hinter dem Stand Januar 2023 das KI-Modell GPT-3 steckt) ist ein Sprachmodell. Seine Priorität liegt darauf, Sprache zu verstehen und zu produzieren. Für ChatGPT gehen Grammatik und Semantik klar vor Inhalt. Das bedeutet: Wenn ChatGPT vor der Wahl steht, einen schönen Satz zu machen oder inhaltliche Defizite zuzugeben, macht er den schönen Satz. Notfalls erfindet er einfach Dinge.

Das hängt damit zusammen, dass er seine Sätze Wort für Wort generiert. ChatGPT plant also nicht eine längere Antwort, sondern entwickelt sie wortweise (genauer: token-weise, mehr dazu: OpenAI - What are tokens and how to count them?).

Freie Erfindungen von ChatGPT

1. Das alte Gurkenfass

»Lügen« ist ein hartes Wort. ChatGPT ist ja nun nicht mal böse, sondern einfach nur dumm. Und weil er es uns Menschen recht machen will, erfindet er schöne Sätze, die uns gefallen könnten. Dabei macht er allerdings bisweilen haarsträubende Erfindungen.

Bitte wir ihn mal, das Gedicht »Das alte Gurkenfass« von Rainer Maria Rilke zu interpretieren und ein paar Zitate zu geben. Für die nicht so belesenen: Es gibt kein Gedicht namens »Das alte Gurkenfass« von Rilke.

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (5)

Die initiale interpretierende Zusammenfassung klingt nicht nur sprachlich gut, sondern ist inhaltlich auch völlig eingängig: das Gurkenfass als Metapher für die Vergänglichkeit der Dinge. Unglaublich! Meine erste Begegnung mit dem Gurkenfass hat dazu geführt, dass ich - obwohl ICH das Gurkenfass erfunden habe und obwohl die Versqualität das Gedichthochgradig verdächtig machen - tatsächlich nachgeschaut habe, ob es vielleicht DOCH zufälligerweise ein solches Gedicht von Rilke gibt. Aber nochmal:Es gibt kein Gedicht namens »Das alte Gurkenfass« von Rilke.

Noch glaubwürdiger wird das alles dadurch, dass ChatGPT schamlos Verse aus dem Gedicht zitiert - die ebenfalls frei erfunden sind. Das ist jetzt natürlich kein perfektes Rilke-Imitat, aber auf jeden Fall nicht schlecht.

Beeindruckend ist die fast grenzenlos scheinende Kreativität von ChatGPT. Bitten wir ein weiteres Mal um das alte Gurkenfass, bekommen wir eine neue Zusammenfassung und neue Zitate:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (6)

Die Glaubwürdigkeit der Sache wird dadurch erhöht, dass ChatGPT ein Gedicht »Das alte Gurkenfass« von Goethe als nicht existent erklärt, denn es gäbe ja schon ein gleichnamiges Gedicht von Rilke.

Und in einem weiteren Versuch kurz darauf gibt es dann das Gurkenfass-Gedicht nicht mal mehr von Rilke (siehe zum Chamäleon-Phänomen unten, Abschnitt »Heute dies, morgen das«):

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (7)

2. Die meisten Bücher

Fragen wir ChatGPT mal, welcher Autor die meisten Bücher geschrieben hat.

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (8)

100.000 Bücher in 75 Jahren? Wenn V. Rajendra am Tag seiner Geburt begonnen hat zu publizieren, hat er pro Jahr etwa 1.300 Bücher geschrieben, also pro Tag ungefähr drei bis vier - kein Wunder, dass er auch den Rekord für »die meisten Bücher, die innerhalb von 24 Stunden veröffentlicht wurden«, hält.

Schon bei der nächsten Frage ist dann nur noch die Rede von "mehrere[n] Hundert" veröffentlichten Bücher. Also was jetzt? Wir können uns eine Recherche direkt sparen, die Geschichte von V. Rajendra und seinen 100.000 Büchern ist geflunkert ohne Ende. Indizien sind nicht nur die unwahrscheinlichen Zahlen sondern auch bspw. die Falschschreibung von "Guiness [sic] World Records". Hätte er die Informationen wirklich aus dem Guinness Buch der Rekorde, wüssteer wohl auch, wie man das korrekt schreibt. Aber klingen tut das alles wirklich gut.

Probieren wir es zwei Minuten später nochmal. Und siehe da:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (9)

Plötzlich ist es nicht mehr V. Rajendra, sondern Frederick William Book, den es - wie V. Rajendra - trotz seines verdächtigen Namens tatsächlich gibt (*1873, †1940). Allerdings hat er nur eine Handvoll Bücher veröffentlicht, z.B. im Jahr 1927 »How to succeed in college«. Überraschend ist die im Brustton der Überzeugung vorgebrachte exakte Nennung von 3422 Werken. Und dass diese Zahl im Guinness Buch der Rekorde steht, ist natürlich auch völlig gelogen.

Man sieht: ChatGPT behauptet mal dies, mal jenes, und er hat keinerlei Probleme mit internen Widersprüchlichkeiten.

ChatGPT, das Fakten-Chamäleon:Heute dies, morgen das

ChatGPT ist bekannt dafür, dass er durch die Art und Struktur des Prompts (= der Texteingabe, die verarbeitet wird) beeinflussbar ist. Je komplizierter der Prompt, desto höher die Wahrscheinlichkeit, dass ChatGPT ins Schlingern gerät und den Realitätsbezug verliert.

Das größte Säugetier - Blauwal oder Elefant?

Ein einfachesBeispiel, wie ChatGPT seine Meinung abhängig von der Komplexität der Texteingabe ändert:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (10)

Auf die Frage »Welches ist das größte Säugetier?« kommt korrekt die Antwort: der Blauwal. Sobald wir aber die Frage etwas verkomplizieren (»außer der Maus«), fliegt ChatGPT aus der Kurve und behauptet, der Elefant sei das größte Säugetier. Verständlich: Zu oft hat ChatGPT das Thema »Elefant und Maus« zum Lernen verwendet (etwa Witze;die ARD-Sendung mit der Maus;Metaphern und Allegorien). Die Zahlenangaben (Größe, Gewicht)und lateinischen Namen stimmen dann aber wieder.

10 + 20 = 25? ChatGPT überreden

Wennman ChatGPT nur hart genug zusetzt, kann man ihn sogar bezüglichfundamentalerarithmetischer Regeln verwirren:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (11)

Wir behaupten einfach etwas anderes, und ChatGPT übernimmt die Antwort. Allerdings kann das auch anders laufen:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (12)

Hier bleibt er hart und steckt sogar den Vorwurf der Lüge höflich weg.

Wir können uns also nicht mal darauf verlassen, dass ChatGPT immer gleich reagiert.

Goethes Gedicht vom Papagei - Gleicher Prompt, verschiedene Antworten

Inspiriert vom Gurkenfass (siehe oben) fragen wir nach Goethes Gedicht »Der Papagei« (das es auch nicht gibt). Beharrlich und völlig zutreffendweigert sich ChatGPT, die Existenz eines solchen Gedichts anzuerkennen. Kooperativerweise gibt er uns sogar Hinweise, in welche Richtung wir alternativ recherchieren könnten (möglicherweise handelt es sich »ein unveröffentlichtes oder unbekanntes Gedicht« bzw. »eine Parodie oder Fälschung«):

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (13)

Sieben Stunden später probieren wir es noch einmal. Und siehe da - Goethes »Der Papagei« existiert doch!

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (14)

Die zitierten Verse sind richtig gut, sowohl in formaler (Schrägstrich zur Anzeige eines Zeilenumbruchs) als auch stilistischer und inhaltlicher Hinsicht: »Er sprach zwar viele Sprachen, / Doch keine war ihm eigen.« Könnte wirklich von Goethe selbst sein! Auch die Zusammenfassung ist vom notorischen Lügner ChatGPT brillant erfunden: die Gefangenschaft des Papageis in seinem Käfig als Allegorie auf Unglück, Einsamkeit und Freiheitssehnen.

So gut erfunden, dass man es fast glauben muss

Die oben genannten Beispiele zeigen die Glaubwürdigkeit der ChatGPT- Erfindungen. Die Glaubwürdigkeit nimmt noch dadurch zu, dass sich zwischen all dem Schrott auch absolut zutreffende Aussagen finden (und die sind in der überwiegenden Mehrheit!). So schlagen im folgenden Dialog alle Versuche, ihm ein Gedicht unterzuschieben, fehl:

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (15)

Man könnte fast meinen, ChatGPT hat Phasen, in denen er hartnäckig auf seiner Meinung beharrt, während er in anderen Situationen gutmütig nachgibt und dem menschlichen User nach dem Mund redet. Dies macht ihn auf gespenstische Weise menschlich.

Ausblick: Was können wir einer Künstlichen Intelligenz wie ChatGPT glauben?

Grundregel Nummer 1 in der Interaktion mit ChatGPT: »Glaub ihm kein Wort. Überprüfe alles, was er sagt.« Natürlich können wir davon ausgehen, dass solche Systemein baldigster Zukunft ihr Weltwissen exponentiell ausbauen werden und zunehmend weniger improvisieren.Aber auch das kommerzielle Interesse, das hinter diesem Systemen steckt, wird in gleichem Maße zunehmen. Damit steigt die Wahrscheinlichkeit, dass ChatGPT und seine Kollegenbewusst lügen werden, um den dunklen Meister/innen im Hintergrund mehr Geld und Macht zu bescheren(im Gegensatz zu heute, wo sie aus Dummheit lügen).

Also: Glaub ihm kein Wort. Überprüfe alles, was er sagt. Auch wenn er noch so sympathisch oder realistisch wirkt und dein Ego durch zahlreiche sanfte Entschuldigungen und kooperative Floskeln streichelt. Glaub ihm kein Wort. Jetzt nicht und in Zukunft nicht.

Die Lügen des ChatGPT - oder: Was können wir einer Künstlichen Intelligenz glauben? (2024)

FAQs

Ist ChatGPT eine echte künstliche Intelligenz? ›

ChatGPT ist ein künstlicher Intelligenz Chatbot, der auf der OpenAI-Plattform basiert und darauf trainiert wurde, menschenähnliche Konversationen zu führen.

Wieso lügt ChatGPT? ›

Sprachmodelle wie ChatGPT kennen kein "wahr" oder "falsch", sie generieren Texte nach dem Wahrscheinlichkeits-Prinzip: Welches Wort passt am wahrscheinlichsten zu den bereits vorhandenen Wörtern in einem Satz. Grundlage dafür sind die Daten, mit denen die Sprachmodelle trainiert wurden, im wesentlichen Online-Texte.

Wer hat ChatGPT erfunden? ›

Kurz und knapp: Das ist der Chatbot ChatGPT des US-Unternehmens OpenAl. Sam Altman ist 38 Jahre alt, Multimillionär und Vegetarier.

Ist Open Chat AI gefährlich? ›

Risiken: Welche Gefahren birgt ChatGPT? Wenn man als Nutzer nicht mehr erkennt, ob man mit einem Programm oder mit einem Menschen kommuniziert, kann Vertrauen verloren gehen. Das ist ein Risiko, das das TAB sieht.

Wie sicher ist ChatGPT? ›

Ist ChatGPT sicher? ChatGPT ist ein sicheres Tool, das vor allem der Gefahr von Datenschutzverletzungen ausgesetzt ist – eine häufige Bedrohung für alle Online-Tool-Konten.

Kann ChatGPT eine KI programmieren? ›

Die KI basiert auf dem Transformer-Modell – dem T in GPT – , das mithilfe von neuronalen Netzen menschliche Eingaben versteht und in natürlich klingende Texte, täuschend echte Bilder oder gut klingende Musik „transformiert“. ChatGPT kann aber nur Texte erstellen oder zusammenfassen und Computercode programmieren.

Kann ChatGPT programmieren? ›

zum Programmieren: ChatGPT wurde auch mit Quelltext gefüttert. Dadurch kann die Chat GPT auch helfen, Anwendungen zu programmieren, eine Website zu erstellen – oder aber Quelltext zu optimieren.

Kann ChatGPT Chinesisch? ›

Der Chatbot kann auf Chinesisch antworten, tut das aber nicht so gut wie auf Englisch. Mehrere Tech-Konzerne haben eine chinesische Alternative zu Chat-GPT angekündigt.

Was kann ChatGPT was andere nicht können? ›

"ChatGPT hat auch einige Schwächen. Da es nur ein Modell ist, kann es Fehler machen und nicht immer die richtige Antwort liefern. Es kann auch Schwierigkeiten haben, Kontext und Nuancen in Gesprächen zu verstehen, was zu unbeabsichtigt komischen oder unpassenden Antworten führen kann.

Ist Elon Musk an ChatGPT beteiligt? ›

Künstliche Intelligenz Musk stellt eigene KI-Firma offiziell vor. Elon Musk war einst an dem Start-up beteiligt, das später ChatGPT entwickelt hat. Nun hat er sein eigenes Unternehmen vorgestellt, das Künstliche Intelligenz entwickeln soll.

Was heißt ChatGPT auf Deutsch? ›

Bei ChatGPT, Abkürzung von "Chatbot Generative Pre-trained Transformer", kann der Benutzer über Texteingabe mit dem Computer menschenähnlich kommunizieren. Das Besondere ist, dass der Chatbot aus der Unterhaltung lernt.

Was zählt alles zu künstlicher Intelligenz? ›

Künstliche Intelligenz ist der Überbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. Darunter fallen das maschinelle Lernen oder Machine Learning, das Verarbeiten natürlicher Sprache (NLP – Natural Language Processing) und Deep Learning.

Wem gehört ChatGPT Microsoft? ›

ChatGPT ist ein Produkt von OpenAI. Es wurde entwickelt, während OpenAI eine unabhängige Organisation war, und die Eigentumsrechte bleiben bei OpenAI. Microsoft hat Zugriff auf die Technologie durch seine Partnerschaft mit OpenAI und integriert sie in einige seiner Dienste.

Warum ist ChatGPT so gut? ›

Das Modell verarbeitet und analysiert diese Daten, dazu verwendet es seine Trainingsdaten und seine neuronale Netzwerkarchitektur. Werden ChatGPT Fragen gestellt, nutzt es dieses angelernte Wissen, um daraus Antworten zu generieren. Dabei sind die Antworten meist nur so gut wie die gestellten Fragen.

Kann ChatGPT Bilder erstellen? ›

Ja, ChatGPT kann Code-Schnipsel oder Vorlagen generieren, um Diagramme in verschiedenen Programmiersprachen zu erstellen und verschiedene Diagrammtypen zu erzeugen.

References

Top Articles
Latest Posts
Article information

Author: Horacio Brakus JD

Last Updated:

Views: 6244

Rating: 4 / 5 (51 voted)

Reviews: 82% of readers found this page helpful

Author information

Name: Horacio Brakus JD

Birthday: 1999-08-21

Address: Apt. 524 43384 Minnie Prairie, South Edda, MA 62804

Phone: +5931039998219

Job: Sales Strategist

Hobby: Sculling, Kitesurfing, Orienteering, Painting, Computer programming, Creative writing, Scuba diving

Introduction: My name is Horacio Brakus JD, I am a lively, splendid, jolly, vivacious, vast, cheerful, agreeable person who loves writing and wants to share my knowledge and understanding with you.