„ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen“ heißt die Studie, die das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag jetzt vorgelegt hat. Das Computermodell der Firma Open AI hat seit seiner Einführung im November 2022 weltweit für Aufmerksamkeit gesorgt. Im Einzelnen beschreibt das rund 100-seitige Hintergrundpapier die Technik, auf der ChatGPT aufsetzt, ihre Möglichkeiten und Grenzen, die potenziellen Anwendungen des Chatbots sowie mögliche gesellschaftliche Auswirkungen.
Das scheinbar grenzenlose Wissen der Dialog-KI und ihre verblüffende, blitzschnelle Eloquenz führt Studienautor Dr. Steffen Albrecht auf zwei technologische Durchbrüche zurück: „Diese neue Art künstlicher neuronaler Netzwerke, die sogenannten Transformermodelle, ermöglicht erstens eine besonders effiziente Umwandlung von Sprache in mathematische Parameter. Dadurch können zweitens die Komplexität dieser Computermodelle und die Menge der für ihr Training verwendeten Daten enorm vergrößert werden.“ So greift das ChatGPT zugrundeliegende Computermodell auf 175 Milliarden Parameter und auf ein Trainingsmaterial von 300 Milliarden Textbestandteilen zurück.
Für Chatbots derartiger Potenz ergeben sich laut Steffen Albrecht eine Reihe plausibler Einsatzmöglichkeiten: „Viele menschliche Tätigkeiten, die mit der Verarbeitung von Texten verbunden sind, lassen sich nun zumindest teilweise automatisieren. Weitere Perspektiven ergeben sich durch die multimodale Ausdehnung auf Bilder und Töne.“ Solche Entlastungs- beziehungsweise Rationalisierungseffekte betreffen künftig nicht nur Bereiche wie Journalismus, Unternehmenskommunikation oder Dialoge mit Kundinnen und Kunden, sondern auch Tätigkeiten wie Programmierung und Rechtsberatung, die bisher nicht betroffen waren. Da die KI-Systeme in natürlicher Sprache angesprochen werden können, könnten sie zudem als leicht bedienbare Schnittstelle für andere Computersysteme genutzt werden.
Allem medialen Wirbel zum Trotz sollte die öffentliche Debatte über Computermodelle wie ChatGPT laut Albrecht auch deren Grenzen und Risiken einbeziehen. Ein in den Trainingsdaten enthaltener Bias, also eine verzerrte Repräsentation bestimmter Kategorien, könne sich beispielsweise in den Antworten des Systems widerspiegeln und Diskriminierung verstärken. Zudem seien die vom System erzeugten Informationen häufig schlicht falsch, gleichzeitig lasse sich aufgrund der hohen sprachlichen Qualität und in Ermangelung von Belegen die Korrektheit nur schwer überprüfen. Daher diskutiert die Studie auch konkrete Risiken wie eine Zunahme als solcher nicht erkennbarer computergenerierter Texte in privater und öffentlicher Kommunikation, effektivere Angriffe auf die Computersicherheit oder größere Mengen bewusst schädigend eingesetzter Texte, die das Vertrauen in den öffentlichen Diskurs beziehungsweise die demokratische Meinungsbildung untergraben.