Vor nicht allzu langer Zeit produzierten Sprachmodelle der künstlichen Intelligenz kaum mehr als Babysprache. Doch auf einmal sind sie schlau genug, um Prüfungen auf Hochschulniveau zu bestehen. Das ist eine echte Revolution.
„Wir befinden uns in einem Zeitalter ausgewachsener Disruption“, sagt Lane Greene, Sprachguru des The Economist, Mitautor des Buches „Writing With Style: The Economist Guide“ und Autor der Johnson-Kolumne. Large Language Models (LLMs) – der bekannteste Vertreter ist ChatGPT – haben bereits die Art und Weise verändert, wie wir Dinge tun.
Obwohl ChatGPT als Suchmaschine sehr effektiv ist, besteht seine spektakulärste Fähigkeit darin, Text zu generieren, der so klingt, als ob er von einem überdurchschnittlichen menschlichen Autor verfasst wurde. Dazu gehören Übersetzungen, das Verfassen von E-Mails und Briefen sowie von längeren Artikeln. Diese Funktionalität ermöglicht es ChatGPT, den Mensch bei der Übersetzung von Routinematerial oder bei der Zusammenstellung bekannter Fakten zu einem Narrativ zu unterstützen oder sogar zu verdrängen. Es kann standardisiertes Material für Rechtsanwälte erstellen und deren Fülle an Dokumenten bearbeiten und synthetisieren. Andere Versionen der generativen KI können Fotos erstellen und Gemälde erweitern. Je größer die Vielfalt an Inputs, für die sie trainiert werden können, desto effektiver werden sie sein.
Viele Beschäftigte sehen darin eine Bedrohung für ihren Job, aber das muss nicht so sein, sagt Greene. Programme wie ChatGPT werden nicht nur immer besser bei der Verrichtung alltäglicher Aufgaben, sondern sie verschaffen den Mitarbeitern auch Zeit, sich anspruchsvolleren und interessanteren Aufgaben zu widmen, wie der Kontrolle der Ergebnisse der LLMs.
ChatGPT könnte sogar die Rettung für weniger effektive und weniger produktive Arbeitskräfte sein. In der Financial Times zitiert der Kolumnist Tim Harford Studien, die zeigen, dass sich Produktivitätsverbesserungen auf die am wenigsten effektiven Arbeitnehmer konzentrieren – Homer Simpsons, wie er sie nennt –, während die Technologie bei den kompetentesten von ihnen nur wenig zur Leistung beiträgt.1
Es gibt (noch) Grenzen...
Bei all ihren revolutionären Fähigkeiten haben LLMs auch ihre Probleme. Wie die Tatsache, dass sie sich Dinge ausdenken. Ihre Entwickler sind sich nicht ganz sicher, warum das so ist, sagt Greene, aber LLMs enthalten immer wieder Informationen, die nicht wahr sind. Und diese wirken meist sehr überzeugend, was es umso gefährlicher macht.
Ein New Yorker Rechtsanwalt musste vor kurzem am eigenen Leib erfahren, wie gefährlich es ist, sich auf ChatGPT zu verlassen. Er nutzte das LLM, um ein juristisches Schriftstück in einer Rechtssache, die einen Personenschaden betraf, aufzusetzen, nur um dann von dem Richter gerügt zu werden, weil er sechs nicht existierende Gerichtsurteile zitiert hatte.2
Lehrer machen sich Sorgen darüber, wie sie mit Schülern umgehen sollen, die sich vor den Hausaufgaben drücken wollen und von ChatGPT Aufsätze erstellen lassen. Eine Möglichkeit besteht darin, sich auf die Schwächen von ChatGPT zu konzentrieren. Einige Lehrer geben ihren Schülern die Aufgabe, tatsächlich mit ChatGPT einen Aufsatz zu erstellen und das Ergebnis dann zu analysieren, um falsche Informationen herauszufiltern.
ChatGPT „saugt eine riesige Menge an Material aus dem Internet“ und es ist gut darin, das wiederzugeben, womit es gefüttert wird. Das geht aber weniger gut mit Wissen, das für uns Menschen selbstverständlich oder selbsterklärend ist, oder mit Fragen, die logisches Denken erfordern. So geht ChatGPT beispielsweise nicht davon aus, dass jemand, der vor einer Stunde am Leben war und der die nächsten zwei Stunden am Leben ist, auch in der Zeit dazwischen am Leben ist, so Greene. Es gibt nicht viel Material im Netz, das diesen Sachverhalt erklärt, denn für den Menschen ist das selbstverständlich.
Ein weiteres Problem ist, dass ChatGPT die Voreingenommenheiten des Materials übernimmt, für das es trainiert wurde, sagt Greene. Je breiter das Material, desto schwieriger ist es, die Verzerrung auszugleichen. Es ist möglich, diese Verzerrung zu eliminieren oder abzumildern, indem die Trainingsinhalte sorgfältig ausgewählt werden, aber das schränkt dann den Nutzen des Modells ein. Ein weiterer Ansatz besteht darin, explizite Regeln festzulegen, die die Trainingsdaten überlagern und zum Beispiel vorgeben „Beantworte keine Fragen, die dich als rassistisch erscheinen lassen“, aber solche Regeln werden vermutlich nie perfekt sein.
Gleichzeitig kann es sein, dass ChatGPT aufgrund der Breite des Materials illegale oder gefährliche Informationen bereitstellt, zum Beispiel wie Napalm oder Drogen wie Crystal Meth hergestellt werden können. Die Entwickler von ChatGPT haben Sicherheitsmechanismen eingebaut, aber die Benutzer entdecken jeden Tag neue Workarounds, so Greene. Aufgrund dieser Hintertüren stehen die Schöpfer von LLMs immer mit einem Fuß im Gefängnis.
... aber der Fortschritt geht weiter
Greene gibt ChatGPT aus drei Dimensionen eine Note. „Für den Faktenabruf bekommt es eine 1+, für das Nachahmen der Leistung des Menschen ein Ausreichend. Wirft man beides in die Waagschale, besteht es gerade so. Es hat nämlich große Mängel“, sagt er.
Trotz aller Unzulänglichkeiten hat ChatGPT schnelle Fortschritte gemacht und die Entwicklung geht weiter. Doch angesichts der Strukturen dieser Modelle – nicht zuletzt ihrer Abhängigkeit von Trainingsdaten – wird es schwer werden, echte originale Inhalte zu erzeugen.
„Das Erkunden von Dingen, von denen niemand oder kaum jemand etwas weiß, bleibt weiterhin dem Menschen vorbehalten“, sagt Greene. Recherche-Journalismus ist also unersetzlich, anders als der „Churnalismus“, also der „Schreibtischjournalismus“, der einfach bereits vorliegende Informationen weitestgehend unverändert und ungeprüft nochmals „aufschäumt“. Originalität und Neuartigkeit werden ein wichtiges Unterscheidungsmerkmal sein. Eine Blackbox kann nicht tiefgreifend neu denken. Es wird immer Raum für einprägsame, einfache, klare Prosa geben, die durch passende Bilder und Metaphern mit Leben erfüllt wird.
ChatGPT kann als Ausgangspunkt für schriftliche Arbeiten dienen, aber menschlicher Input ist notwendig, um dem Output einen Sinn zu geben. Übersetzer werden zu Post-Editoren, die mithilfe von LLMs einen ersten Entwurf erstellen, den sie dann überprüfen, um sicherzustellen, dass keine Nuancen verloren gehen und subtile sprachliche Fallstricke vermieden werden.
Die Menschen lechzen nach Authentizität. ChatGPT verändert vielleicht die Form der schriftlichen Erzeugnisse, aber es macht Autoren nicht überflüssig. „So wie die Fotografie nicht das Ende der Malerei bedeutete, sondern nur veränderte, was und wie gemalt wurde“, so Greene.
Einblicke für Investoren
- Tools für die Verarbeitung natürlicher Sprache (NLP) könnten laut Goldman Sachs das globale BIP um 7 Prozent steigern und das Produktivitätswachstum in einem Jahrzehnt um 1,5 Prozentpunkte verbessern.
- In der Bankenbranche könnte die Technologie einen zusätzlichen Wert von 200–340 Mrd. US-Dollar pro Jahr generieren, wenn Anwendungsfälle voll implementiert wären. Laut McKinsey beläuft sich der potenzielle Impact in den Sektoren Einzelhandel und Konsumgüter auf 400–660 Mrd. US-Dollar.
- Der gesamte potenzielle Markt für generative KI-Software wird voraussichtlich einen Wert von 150 Mrd. US-Dollar haben, gegenüber der 685 Mrd. US-Dollar schweren globalen Softwareindustrie, schätzt Goldman Sachs.
[1] https://www.ft.com/content/74c63f77-f543-4be0-9cd9-2f5f40ba6f17
[2] https://www.reuters.com/legal/transactional/lawyer-used-chatgpt-cite-bogus-cases-what-are-ethics-2023-05-30/