| Forschung
Neue KI

ChatGPT: Disruptive Veränderungen erwartet

Die KI-Software ChatGPT ist seit ihrer Markteinführung in aller Munde. Autor*innen, Künstler*innen und Wissenschaftler*innen schwanken zwischen Faszination, Verunsicherung und Kritik. Wie die KI funktioniert, was sich dahinter verbirgt und wie wir sie produktiv einsetzen können, erklärt Experte Prof. Peter Kabel vom Department Design an der Fakultät Design, Medien, Information.

Prof. Kabel ist KI-Experte

Prof. Kabel ist Experte für Interaction und Service Design am gleichnamigen Department Design.

Die KI-Software ChatGPT wurde Ende November 2022 von der Firma OpenAi für die Öffentlichkeit freigegeben. GPT steht für Generative Pre-trained Transformer, was so viel wie eintrainierter Texte-erzeugender Transformator heißt. Im Vergleich zu bekannten Chatbots, beispielsweise als Service auf Webseiten, kann ChatGPT vollständige Texte ausarbeiten, die in sich weitgehend konsistent sind. Dabei greift die Künstliche Intelligenz (KI) auf Nachrichtenartikel, Soziale Medien, Foren oder Bücher im Internet zurück. Wir haben Prof. Peter Kabel von der Fakultät Design Medien Information im Fachgebiet Interaction und Service Design befragt, was ChatGPT unter anderem für die zukünftige wissenschaftliche Arbeit bedeutet.

Lieber Professor Kabel, was genau kann die neue KI „ChatGPT“ und was unterscheidet sie von herkömmlichen Chatbots?
Prof. Peter Kabel: Es handelt sich um grundlegend verschiedene Systeme, die – etwas missverständlich – den Begriff „Chat“ teilen. Das derzeit so gehypte ChatGPT ist ein Interface für das dahinterliegende Sprachmodel GPT von OpenAI. Mithilfe des Chat-Interface kann man dieses enorm leistungsfähige Sprachmodel befragen und erhält sehr detaillierte und – zumindest auf den ersten Blick – plausible Antworten. „Herkömmliche Chatbots“ basieren in der Regel auf viel kleineren Wissensdomänen. Aus gutem Grund beantwortet der Chatbot auf einer Website nur Fragen, die im Zusammenhang des Internetangebots relevant sind, und verweigert die Antwort auf Anfragen außerhalb dieses klar umrissenen Feldes. So vermeidet ein herkömmlicher Chatbot – was bei ChatGPT regelmäßig passiert, – dass das Sprachmodel in unterschiedlicher Weise übers Ziel hinausschießt und viel zu lang ist, ausufernd, oder gar vollkommen halluziniert. Letzteres bedeutet, dass das Model beispielsweise Quellenangaben und Fakten erfindet, die nicht existieren.

Jede KI beruht auf den Daten, mit denen diese programmiert wurde und unterliegt einem Algorithmus. Wie können systematische Fehler beim ChatGPT vermieden werden?

Peter Kabel: Man kann der KI „Manieren beibringen“. Aufgrund der unendlichen Datenmengen und ausufernden Themenfelder sind die möglichen Fehler ebenfalls unendlich. Das Einhegen dieser Fehler wäre die Aufgabe von Menschen. Entweder durch systematische Testroutinen und Korrektur, und – oder –  indem man das Nutzer*innen-Feedback systematisch auswertet und in die Korrektur einbezieht. Beides ist sehr aufwändig und kann dazu führen, dass das ganze Vorhaben die derzeitigen Machbarkeitsgrenzen überschreitet und sich jeder Ökonomie entzieht. Man muss bedenken, dass es unterschiedlichste Arten von Fehlern gibt. Dinge, die faktisch falsch sind, oder schlicht frei erfunden. Eine Fehlerart, die in einer großen Zahl von ChatGPT-Antworten zu bemängeln sind. 

Daneben gibt es aber auch eine unendliche Anzahl von „weichen Fehlern“. Fehlern, die im besten Fall einfach nicht vernünftig sind, oder – im weniger günstigen Fall – ethisch, moralisch, kulturell und so weiter verwerflich. Selbst wenn man anerkennt, dass der Begriff Intelligenz nicht eindeutig definiert ist und mithin auch künstliche Intelligenz nicht klar definiert ist, muss man konstatieren, dass Systeme wie ChatGPT eben überhaupt nicht intelligent sind. Sondern sie sind im Gegenteil ziemlich „dumm“, weil entscheidende Fähigkeiten zur Unterscheidung zwischen richtig und falsch, sinnvoll und sinnlos und Fragen in Bezug auf Kultur und Ethik nicht vorhanden sind. In der Regel ist es das „Anthropomorphismus“ genannte Phänomen, das uns Menschen in Gegenständen der Natur oder Technik „Wesen“ erkennen lässt und uns glauben macht, Systeme wie ChatGPT hätten menschliche Intelligenz, und womöglich eigene Empfindungen.

Meine Übersetzung von AI lautet nicht „Artificial Intelligence“ sondern „Augmented Intelligence“ – erweiterte Intelligenz und Fähigkeiten für Menschen.

Prof. Peter Kabel, Experte für Interaction und Service Design an der Fakultät Design, Medien, Information.

Wie kann ein Missbrauch ausgeschlossen werden? Wie zum Beispiel können Lehrende durch ChatGPT generierte Hausarbeiten oder sogar Abschlussarbeiten erkennen? 
Peter Kabel: Es gibt bereits erste Softwaretools, die mit einer gewissen Wahrscheinlichkeit feststellen können, ob ein Text direkt aus einem der großen Sprachmodelle stammt. Syntaktische Muster können dafür sprechen. Praktisch handelt es sich dabei vermutlich um das typische Phänomen bei dem Sprachmodelle und Software-Detektoren ein nie entscheidbares Rennen betreiben. Lehrende müssen sich auf ihr Gefühl verlassen und auf Indizien achten, wie beispielsweise widerlegbare Fakten, sinnlose Phrasen und halluzinierte Passagen und ähnliches mehr.

Wie kann uns das System ChatGPT produktiv unterstützen? Wie kann es die Arbeitswelt oder den Studienalltag erleichtern? 
Peter Kabel: Generative AI-Systeme werden unseren Arbeits- und Studienalltag massiv verändern. Alle Formen von Wissen und Wissensmanagement werden sich anpassen. Dabei werden diejenigen massiv profitieren, die verstehen, wie sie AI-Systeme als Werkzeuge einsetzen können. Meine Übersetzung von AI lautet nicht „Artificial Intelligence“ sondern „Augmented Intelligence“ – erweiterte Intelligenz und Fähigkeiten für Menschen. Es ist richtig, in der nun rasch anlaufenden Disruption wird es Gewinner und Verlierer geben – auf individueller und institutioneller Ebene. Es wird aber niemand der Job weggenommen von einer AI, sondern von einem Menschen, die oder der schnell verstanden hat, wie sie oder er AI richtig nutzen kann.

Produktiver Einsatz bedeutet, sich von einer AI gezielt Beispiele, Varianten und Zwischenergebnisse anfertigen zu lassen, die die Person anschließend bewertet, auswählt und in einem weiteren Schritt von einer AI zusammenführen und verbessern lässt. Das Zusammenspiel von Mensch und Maschine ist dabei der Schlüssel. Dabei gibt es noch viel auf Seiten der AI-Software-Anbieter zu tun, denn die meisten Tools haben noch sehr grobe oder gar keine Interfaces. Natürlich ist es verblüffend, dass man durch einen einfachen sogenannten „Sprachprompt“ (ausführlicher Sprachbefehl, Anm.d.Red.) die AI anstoßen kann. Andererseits wollen Nutzer – vor allem in professionellen Kontext – auch mehr Kontrolle über den Textoutput der Modelle. Genau bei dieser differenzierten Einflussnahme auf die Funktion muss noch sehr viel Entwicklungsarbeit geleistet werden.

Wenn man die Dimension der Veränderung durch große Transformermodelle verstehen will, muss man verstehen, dass alles, was einer Syntax folgt – also alle Arten von Texten und menschlicher Sprache, Computerprogramme, Chemische Formeln, aber auch Spiele und Musik – von Sprachmodellen bearbeitet wird. Die Umwälzung wird also nicht nur Textarbeiter betreffen, sondern weitere Bereiche der Gesellschaft.

Aber es ist natürlich absehbar, dass auch Autor*innen, Künstler*innen und so fort ihre Rolle neu definieren werden müssen und wollen.

Peter Kabel, KI-Experte, lehrt am Department Design.

Wie sieht es mit dem Urheberschutz aus, gibt es überhaupt noch einen Urheber? Wie können generierte Texte auf Quellen zurückgeführt werden? Wie steht es um den Datenschutz? 
Peter Kabel: In einem System gibt es mindestens drei Urheber: Die Ersteller des AI-Models und  diejenigen, die den Prompt formuliert haben, auf den das AI-Modell reagiert. Lassen Sie mich Prompt kurz erklären: Der Prompt kann kurz als Eingabe-Aufforderung bezeichnet werden und kann viele Worte und Begriffe lang sein. Man spricht in diesem Zusammenhang von Prompt-Engineering, oder Prompt-Crafting. Die Qualität dieser Prompts bestimmt maßgeblich das Ergebnis. Das Wissen um die richtige Prompt-Komposition wird als die "Superpower" der Zukunft bezeichnet.

Aber zurück zu den Urhebern: Hier gibt es natürlich noch die unzähligen Autor*innen, deren Texte und andere Medien als Trainingsdaten verarbeitet wurden. Das Verständnis, wer welche Rechte am Ergebnis hat, entwickelt sich unter den Akteur*innen derzeit noch. Es sind verschiedene Klagen anhängig, bei denen es derzeit (noch) vor allem um Programm-Snippets von Computerprogrammen geht. Aber es ist natürlich absehbar, dass auch Autor*innen, Künstler*innen und so fort ihre Rolle neu definieren werden müssen und wollen. Eine nicht ganz einfache Aufgabe, da die Sprachmodelle keineswegs nur identifizierbare Versatzstücke, beispielsweise Textpassagen, kopieren und lediglich neu zusammensetzen. Generative AI-Systeme lernen von Texten und formulieren tatsächlich eigene Texte, basierend auf statistisch in den Trainingsdaten enthaltenen Mustern. Ein Prozess der dem Menschen ganz ähnlich ist. Auch wir synthetisieren alle bis dato gelesene Texte in der Textarbeit zu einem neuen Text und machen uns dabei nicht automatisch zu Plagiator*innen. 

Und noch zum Datenschutz: dieser ist eigentlich nur oder erst dann ein Problem, wenn Nutzerdaten – zum Beispiel zur Auswertung oder Optimierung – erhoben werden, was zumindest derzeit noch kein wirklich bedeutendes Phänomen ist.

Das jedenfalls sind meine Antworten, die ich nicht aus ChatGPT entnommen habe.

Interview: Anke Blacha/Katharina Jeorgakopulos

Kontakt

Fakultät Design, Medien, Information (DMI)
Department Design
Prof. Peter Kabel
Experte für Interaction und Service Design
peter.kabel (at) googlemail (dot) com

x