ChatGPT: Eine Einschätzung des polarisierenden Chatbots

Autor*in:
Prof. Dr.
Christian
Bauckhage

Seit OpenAI den Chatbot ChatGPT im November 2022 veröffentlicht hat, spricht jeder darüber. Die klassischen Medien berichten umfangreich und Social Media ist voll mit Geschichten über die Möglichkeiten und Fähigkeiten des Chatbots. Warum der ganze Hype? Ist ChatGPT wirklich so bahnbrechend, wie die Leute behaupten? Sind wir alle Zeugen der Geburt einer starken KI? Auf diese Art von Fragen möchte ich in dieser kurzen Reihe von Meinungsbeiträgen eingehen.

Zu Beginn denke ich, es könnte Spaß machen, meine eigenen Geschichten zu erzählen, was ChatGPT tun kann. Der Kontakt, den ich bisher damit hatte, war in der Tat eine interessante Erfahrung. Ich möchte ein paar Beispiele durchgehen, aus denen wir Schlüsse über die innere Funktionsweise des Chatbots ziehen können. Obwohl ich versuchen werde, Fachjargon zu vermeiden, kann es sein, dass ich noch in alte Gewohnheiten verfalle. Daher ist es vielleicht am besten, mit ein paar kurzen (und vielleicht kryptischen) wissenschaftlichen Aussagen über ChatGPT zu beginnen.

ChatGPT ist ein künstliches intelligentes System (oder einfach eine KI), welches sich mit Menschen unterhalten kann. Sein Kernstück ist GPT-3, ein sogenanntes großes Sprachmodell, das auf generativen, vortrainierten Transformern basiert. Ein Transformer ist ein spezieller Typ eines künstlichen neuronalen Netzes, welches darauf trainiert werden kann, Texte in natürlicher Sprache zu generieren. Dieses Training erfordert eine enorme Anzahl an Textschnipseln (aus dem Web und aus Literaturdatenbanken) und den Einsatz von Algorithmen des Maschinellen Lernens, die das Netz darauf trainieren vorherzusagen, welche Wörter in einem unvollständigen Satz oder Absatz als nächstes kommen. Schließlich wurde ChatGPT weiter an die Aufgabe angepasst, Unterhaltungen zu führen. Keine Sorge, in zukünftigen Beiträgen werde ich das alles noch viel ausführlicher erklären.

Schauen wir uns nun einige der Gespräche an, die ich mit ChatGPT geführt habe. Vor meiner ersten Interaktion mit der KI wusste ich bereits, dass trainierte Transformatoren in der Lage sein können, Text von einer Sprache in eine andere zu übersetzen. Meistens wird dies anhand von Englisch und Französisch demonstriert, aber ich dachte mir „Was ist mit Esperanto?“, was zu dem folgenden kurzen Dialog führte.

Nun, das hat tatsächlich geholfen, und ich war erstaunt. Soweit ich das beurteilen konnte, war alles richtig, und ich hatte mein erstes Gespräch mit einer KI genauso geführt, wie ich es mit einem gut ausgebildeten Menschen getan hätte.

Was können wir also aus diesem kurzen Gespräch lernen?

Zunächst scheint es, als ob Wikipedia-Artikel und Bildungstexte in den Trainingsdaten von ChatGPT eine große Rolle spielen. Die erste Antwort liest sich wie ein Wörterbucheintrag, und bei der zweiten Antwort scheint es, als wolle ChatGPT erklären, wie es auf die Übersetzung in Esperanto gekommen ist. Es wiederholt den zu übersetzenden Satz, liefert die Übersetzung und erläutert dann die Gründe für die Übersetzung. Im Großen und Ganzen produziert die KI also einen Text, wie man ihn auch in einem Sprachlernbuch oder auf einer Sprachlern-Website finden würde.

Zweitens – vermutlich, weil enzyklopädische und pädagogische Texte einen großen Teil der Trainingsdaten von ChatGPT ausmachten – wirkt der Chatbot wie ein übereifriger Student, dessen Antworten so viel wie möglich abdecken und somit über das Wesentliche der Frage hinausgehen. Wenn ich beispielsweise nach Esperanto frage, würden die meisten mir bekannten Leute einfach sagen: „Ja, davon habe ich schon gehört. Es ist eine beliebte konstruierte Sprache.“ Was die meisten Menschen nicht tun würden, ohne dazu aufgefordert zu werden, ist, in einen Diskurs darüber einzutauchen, wer Esperanto erfunden hat, was seine Konstruktionsprinzipien sowie grammatikalischen Merkmale sind und welche Anwendungsfälle es gibt. Wie wir in zukünftigen Beiträgen sehen werden, sind solch ausführliche Antworten ziemlich charakteristisch für ChatGPT und können als eine seiner noch bestehenden Schwächen angesehen werden.

ChatGPT kann sich irren

Was soll das bedeuten? Bedenken Sie dies: Während viele ChatGPT für seine häufigen sachlich falschen Antworten kritisieren, tue ich das nicht. Auch Menschen wissen oft nicht die Antwort auf eine Frage, vor allem, wenn ihnen diese nie beigebracht wurde. Bis jetzt wurde dem Chatbot nicht absichtlich beigebracht, alles zu wissen. Es wurde darauf trainiert, eine menschenähnliche Konversation zu führen und kann daher nicht dafür verantwortlich gemacht werden, dass es sich irrt, auch wenn das ärgerlich ist. Was jedoch kritikwürdig ist, sind Antworten, die sich selbst widersprechen. Hierin liegt eine der Schwächen der aktuellen Technologie von ChatGPT. Wie wir später sehen werden, enthalten die langatmigen Antworten oft Widersprüche, die eine intelligente Person oder Software erkennen und vermeiden würde. Da ChatGPT dazu offensichtlich noch nicht in der Lage ist, gibt es noch Raum für Verbesserungen, und ich erwarte, dass die nächste Generation der zugrundeliegenden Technologie in dieser Hinsicht viel besser sein wird.

Drittens ist ChatGPT zwar noch nicht superintelligent oder allwissend, aber es verwendet bereits Aussagen wie „Ich bin mit Esperanto vertraut“. Bedeutet das, dass es sich seiner selbst bewusst ist oder ein Bewusstsein hat? Gibt es ein „Ich“ hinter der Schnittstelle, über die wir mit dem Chatbot interagieren? Nun, ich glaube nicht. In einem weiteren Beitrag werde ich auf einige der Interaktionen eingehen, die ich mit ChatGPT hatte und bei denen ich bewusst versucht habe, herauszufinden, ob es Anzeichen von Selbstbewusstsein und einem bewussten Geist zeigt. Spoiler-Alarm: Bis jetzt hat es das nicht.

Insgesamt ist ChatGPT also eine beeindruckende Errungenschaft der KI-Forschung und -Entwicklung, die noch viele weitere Blogbeiträge als nur diesen einen wert ist. Bleiben Sie dran, in den kommenden Beiträgen werde ich auf offensichtliche Mängel des Sprachmodells, Probleme mit scheinbar richtigen Antworten, die sich dann doch als falsch herausstellen, Tests für seine Intelligenz, die Frage des Bewusstseins und der starken KI, die potenziellen sozialen und wirtschaftlichen Auswirkungen dieser Technologie sowie technische Details hinter Transformern und aktuellen großen Sprachmodellen eingehen.

Autor*in

Prof. Dr.
Christian
Bauckhage

Christian Bauckhage verfügt über mehr als 20 Jahre Forschungserfahrung in der Industrie und im Hochschulbereich. Er ist Miterfinder von 4 Patenten und (Mit-)Autor von mehr als 200 Veröffentlichungen zu den Themen Mustererkennung, Data Mining und intelligente Systeme, von denen mehrere als beste Arbeiten ausgezeichnet wurden. Er studierte Informatik und Physik in Bielefeld, war Forschungspraktikant am INRIA Grenoble und promovierte 2002 in Informatik an der Universität Bielefeld. Danach arbeitete er am Centre for Vision Research der York University in Toronto und als Senior Scientist bei den Deutsche Telekom Laboratories in Berlin, bevor er 2008 nach Bonn berufen wurde. Er ist regelmäßig als Gutachter oder Bereichsleiter für Konferenzen wie ECML PKDD, ICANN, ICLR, ICML, IJCAI, NeurIPS tätig und ist Mitherausgeber der Zeitschriften Pattern Recognition und IEEE Trans. über Spiele. Christians aktuelle Forschung konzentriert sich auf Theorie und Praxis hybrider Lernsysteme und auf Quantencomputing für KI und ML.