Egal ob Filmproduzent in Hollywood oder Lkw-Fahrer – künstliche Intelligenz bereitet vielen Menschen Sorge. Angesichts des rasanten technologischen Fortschritts wächst das Unbehagen über die Auswirkungen der generativen KI auf unsere Arbeit, das soziale Gefüge und die Welt im Allgemeinen. Wird es überhaupt noch Aufgaben geben, die nicht von Maschinen erledigt werden?
In den letzten zehn Jahren haben sich meine Mitarbeiter und ich intensiv mit den Auswirkungen der KI beschäftigt. Vor einem Jahrzehnt habe ich in einem mit Michael Osborne verfassten Beitrag aufgezeigt, dass schätzungsweise fast 47 Prozent der Arbeitsplätze in den USA theoretisch automatisiert werden könnten, da KI und mobile Robotik das Spektrum der auf den Computer übertragbaren Aufgaben vergrößern.
Unseren Vorhersagen lag die Überzeugung zugrunde, dass der Mensch ungeachtet des technischen Fortschritts in drei zentralen Bereichen weiterhin die Oberhand behalten würde: Kreativität, komplexe soziale Interaktionen und Umgang mit unstrukturierten Situationen, z. B. im eigenen Zuhause.
Dennoch muss ich zugeben, dass sich auch in diesen Bereichen sehr viel getan hat. Large Language Models (LLMs) wie GPT-4 können mittlerweile auf unzählige Prompts menschenähnliche Textreaktionen erzeugen. Im Zeitalter der generativen KI schafft es die Maschine sogar, kleine Liebesbotschaften zu verfassen.
Doch sind die Unzulänglichkeiten bei der Automatisierung, wie wir sie vor zehn Jahren festgestellt haben, noch immer nicht behoben. Wenn GPT-4 zum Beispiel Liebesbriefe für Sie schreibt, dann wird die persönliche Verabredung umso wichtiger. Die Krux an der Sache ist nämlich, dass in die sozialen Interaktionen immer mehr Algorithmen hineinspielen, daher nimmt auch die Bedeutung persönlicher Interaktionen, die von der Maschine (noch) nicht imitiert werden können, zu.
Und dass die KI einen Brief mit Shakespeares Eloquenz schreiben kann, ist nur möglich, weil sie mit den Werken von Shakespeare trainiert wurde. Grundsätzlich glänzt KI bei Aufgaben, die durch explizite Daten und Ziele definiert sind, wie zum Beispiel die Optimierung von Spielergebnissen oder die Nachahmung von Shakespeare-Prosa. Doch welchen Maßstab sollte man anlegen, wenn es darum geht, originale Inhalte zu schaffen, anstatt alte Ideen zu kopieren? Vielleicht die menschliche Kreativität?
Darüber hinaus können viele Aufgabenbereiche nicht automatisiert werden, wie unser Beitrag aus dem Jahr 2013 erklärt. Generative KI – eine Teilmenge der weitreichenden KI-Landschaft – funktioniert nicht unbedingt als Automatisierungstool. Sie erfordert menschlichen Input als Impulsgeber und für die anschließende Verfeinerung, Überprüfung der Fakten und Bearbeitung der Ergebnisse.
Schließlich spiegelt sich in der Qualität der Inhalte der generativen KI auch die Qualität der Trainingsdaten wider. Wie heißt es so schön: Geht Unsinn rein, kommt Unsinn raus. In der Regel basieren diese Algorithmen auf riesigen Datensätzen, die oft weite Teile des Internets umfassen, und nicht auf sorgfältig von Experten zusammengestellten Datenbeständen. Daher neigen LLMs dazu, Texte zu verfassen, deren Inhalt durchschnittlich ist – und alles andere als außergewöhnlich. Wie von Michael und mir kürzlich in einem Artikel in The Economist erläutert, ist das Prinzip ganz einfach: Durchschnittliche Daten führen zu durchschnittlichen Ergebnissen.
KI braucht den Mensch
Was bedeutet das also für die Zukunft der Beschäftigung? Zunächst einmal erfordert die aktuelle KI-Welle konsequente menschliche Aufsicht. Interessanterweise haben diejenigen mit weniger spezialisierten Fähigkeiten vielleicht einen Vorteil, da sie nun Inhalte erstellen können, die diesem „durchschnittlichen“ Standard entsprechen.
Die zentrale Frage ist natürlich, ob der künftige Fortschritt dies bald ändern und eine Automatisierung auch in kreativen und sozialen Bereichen ermöglichen könnte? Ohne wirkliche Innovation erscheint das zweifelhaft. Erstens machen die Daten, die die LLMs bereits konsumiert haben, vermutlich einen erheblichen Teil des Internets aus. Daher herrscht Skepsis darüber, ob das Spektrum der Trainingsdaten in den nächsten Jahren überhaupt hinreichend erweitert werden kann. Darüber hinaus könnte die Verbreitung von minderwertigen KI-Inhalten die Qualität des Internets insgesamt beeinträchtigen und es damit zu einer unzuverlässigeren Trainingsquelle machen.
Zweitens: Auch wenn die Technologiewelt weiterhin an das durch das Mooresche Gesetz vorhergesagte stetige Wachstum glaubt, wonach sich die Anzahl der Transistoren auf einem Chip etwa alle zwei Jahre verdoppelt, besteht zunehmend Konsens darüber, dass dieses Tempo aufgrund inhärenter physikalischer Grenzen um 2025 herum ein Plateau erreichen könnte.
Drittens wurde angenommen, dass die Energiekosten für die Entwicklung von GPT-4 einen beträchtlichen Teil der Trainingskosten von 100 Mio. US-Dollar ausmachen – und das war vor dem Anstieg der Energiepreise. Aufgrund der akuten Problematik des Klimawandels steht die Nachhaltigkeit solcher Praktiken auf dem Prüfstand.
Was benötigt wird, ist eine KI, die mit genaueren, fachkundig zusammengestellten Datenbeständen angelernt werden kann, kurzum, dass Qualität vor Quantität gestellt wird. Eine Prognose zu treffen, ob und wann es einen solchen Durchbruch geben wird, ist schwer. Ein konkreter Schritt besteht darin, ein Umfeld zu schaffen, das dateneffiziente Innovationen fördert.
Ordnen wir dies historisch ein: Zu Beginn des 20. Jahrhunderts gab es einen regelrechten Wettlauf zwischen Elektrofahrzeugen und dem Verbrennungsmotor um die Vorherrschaft im aufstrebenden Automobilsektor. Zunächst schien es, als würden sie sich ein Kopf-an-Kopf-Rennen liefern, doch die Entdeckung riesiger Erdöl-Vorkommen gab den Ausschlag zugunsten des Verbrenners. Hätten wir in dieser Zeit eine Mineralölsteuer eingeführt, wäre die Entwicklung möglicherweise zugunsten von Elektrofahrzeugen verlaufen, wodurch sich unser CO2-Fußabdruck erheblich verringert hätte. Ebenso könnte die Einführung einer Datensteuer ein Anreiz dafür sein, KI-Prozesse im Hinblick auf den Datenverbrauch zu verschlanken.
Wie von mir in früheren Beiträgen erörtert, werden viele Arbeitsplätze mit der Zeit automatisiert werden. Doch daran ist nicht zwangsläufig die aktuelle Generation generativer KI schuld. Solange es keine echten Innovationen gibt, rechne ich damit, dass die in unserer Studie aus dem Jahr 2013 identifizierten Herausforderungen fortbestehen und das Ausmaß der Automatisierung in den kommenden Jahren begrenzen werden.
Einblick für Investoren
von Anjali Bastianpillai, Senior Client Portfolio Manager, Themenaktien, Pictet Asset Management
- Bloomberg Intelligence zufolge wird der Markt für generative KI in den nächsten zehn Jahren auf 1,3 Bio. US-Dollar anwachsen – von gerade mal 40 Mrd. US-Dollar im Jahr 2022.
- McKinsey hat 63 Anwendungsbereiche für generative KI in 16 Geschäftsfunktionen identifiziert, die jährlich zwischen 2,6 Bio. und 4,4 Bio. US-Dollar an wirtschaftlichen Vorteilen bringen könnten.
- Jede neue Generation von KI-Systemen erfordert eine exponentiell höhere Rechenleistung. Das Large Language Model (LLM) PaLM2 von Google, eines der modernsten generativen KI-Systeme, berücksichtigt 340 Milliarden Parameter, also Variablen, die während des Trainings angepasst werden, um festzulegen, wie die Inputdaten in die gewünschten Ergebnisse umgewandelt werden sollen, verwendet einen Trainingsdatenbestand von 2,7 Billionen Datenpunkten und benötigt 7,34 Milliarden petaFLOPs an Rechenleistung. Zur Einordnung: 2019 verwendete die führende KI-Engine OpenAI Five gerade mal 159 Millionen Parameter, 454 Milliarden Datenpunkte und 67 Millionen petaFLOPs, so Our World in Data.