Das Henderson Global Technology Team vertritt seit langem die These, dass innovative Technologien in einer globalisierten Wirtschaftswelt disruptive Wirkung entfalten und neue Märkte schaffen werden. Um diese These zu stützen, genügt ein Blick in die nicht so ferne Vergangenheit: Was einst mit der Entwicklung des PCs begann, setzte sich mit der Verbreitung des Internets fort und kulminierte in jüngster Zeit mit dem Siegeszug von Smartphones und Cloud-Computing. Die künstliche Intelligenz markiert nach Überzeugung des Teams den nächsten Quantensprung in der technologischen Entwicklung.
Was ist künstliche Intelligenz?
Vereinfacht ausgedrückt, bezeichnet KI die Fähigkeit der Maschinen zu „denken“. Dies reicht von der vergleichsweise einfachen Erkennung von Mustern, die menschlichen Reaktionen entsprechen, über maschinelles Lernen, das sich an logischen Schlussfolgerungen orientiert, bis hin zu stärker autonomen Denkprozessen. Möglich wird all dies durch Deep Learning und neuronale Netze1 mit denen Maschinen ihre eigenen Codes schreiben und sich mit deutlich weniger menschlicher Interaktion selbst optimieren können.
Wir befinden uns in einer Phase, in der die KI zunehmend für Suchalgorithmen, Übersetzungsanwendungen, Robotik, autonomes Fahren sowie für die Sprach- und Bilderkennung eingesetzt wird. Dabei geht es nicht um – zugegebenermaßen unterhaltsame – Dinge wie Roboter, die in Quizsendungen ihre menschlichen Gegner besiegen. Vielmehr geht es darum, wie Informationstechnologie und Daten zum Nutzen der Allgemeinheit verwendet, ja demokratisiert werden können, um dramatische Effizienzgewinne und bahnbrechende Neuerungen in so unterschiedlichen Branchen wie Gesundheitswesen, Finanzsektor, Landwirtschaft, Einzelhandel oder auch Transportwesen zu ermöglichen.
Aktuelle KI-Treiber
Chancen und Risiken der künstlichen Intelligenz waren immer wieder Gegenstand populärer Fiktion, von Isaac Asimovs Romanen in den 1940er Jahren bis zu wegweisenden Hollywood-Blockbustern wie „Blade Runner“ (1982) und „Terminator“ (1984). Obwohl die zugrunde liegende Technologie schon lange verfügbar ist, erlebte die KI erst in jüngster Zeit einen Wendepunkt, sowohl hinsichtlich ihrer Fähigkeiten als auch mit Blick auf das Investitionsvolumen. Während das Fernsehen erst nach mehr als 60 Jahren in 80% aller Haushalte Einzug gehalten hatte, erreichte das Internet diese Marke bereits nach nur zehn Jahren. Neue Technologien setzen sich immer schneller durch, ein Trend, der aus zwei Gründen auch für die künstliche Intelligenz gelten dürfte.
Erstens generieren Internet- und Smartphone-Nutzer Tag für Tag gigantische Datenmengen. Zweitens können diese Daten durch dramatische Kosteneinbrüche bei gleichzeitig steigender Rechenleistung so schnell und billig analysiert werden wie nie zuvor (Grafik 1). Nach Schätzung von IBM wurden 90% der weltweiten Datenmenge in den vergangenen zwei Jahren erzeugt; gleichzeitig kostet ein GigaFLOP heute nur noch 8 US-Cent (verglichen mit theoretischen 1,4 Mrd. US-Dollar im Jahr 1961).
Grafik 1: Kosten für die Datenanalyse sinken dramatisch
KI hat enormes Potenzial
Noch befinden wir uns am Beginn des KI-Zeitalters. Beschleunigt wird dessen Entwicklung indes durch das Cloud Computing, d.h. die Bereitstellung von IT-Infrastruktur als Dienstleistung über das Internet, ein weiteres zentrales Thema der Global Technology Strategy, und das Mooresche Gesetz2. Obwohl das Deep Learning bereits einen kritischen Punkt erreicht hat, beschränken sich die Anwendungsfälle3 der künstlichen Intelligenz noch auf wenige Nischen und spezielle Problemstellungen.
Zugleich führt die Fortschreibung des Mooreschen Gesetzes und die Entwicklung der Cloud-Infrastruktur zu einem kontinuierlichen Rückgang der Rechenkosten. Während man 2016 für 1.000 US-Dollar noch die Denkleistung einer Maus erhielt, wird dies 2023 bereits die Denkleistung eines Menschen und 2045 die Denkleistung der gesamten Menschheit sein (Grafik 2). Kombiniert mit immer mehr Daten, aus denen die Maschinen lernen können, ergibt sich ein kaum zu überschätzendes Potenzial für die künstliche Intelligenz.
Grafik 2: Mehr Rechenpower für weniger Geld
Anlagechancen im KI-Sektor
Ähnlich wie der Markt für Mobiltelefone vor gut einem Jahrzehnt, steckt der KI-Sektor heute – noch – in den Kinderschuhen; angesichts des technologischen Fortschritts dürfte er ihnen aber schnell entwachsen.Wir sehen erhebliches Potenzial in so unterschiedlichen Bereichen wie Analysesoftware, kostengünstigem Hochleistungsrechnen, Datenerzeugung, Automatisierung und zahlreichen anderen innovativen Anwendungen.
Trotz der großen Aufmerksamkeit, die die Robotik (d.h. die Automatisierung im weiteren Sinne) in jüngster Zeit erfahren hat, ist sie unserer Ansicht nach nur eine von vielen Anwendungsmöglichkeiten der künstlichen Intelligenz. Beachtenswert sind auch der Kundenservice, der durch Chat-Bots, Spracherkennung und prädiktive Software revolutioniert wird, sowie der Transportsektor, der angesichts von autonomem Fahren (bei dem die Systeme durch Deep-Learning-Algorithmen trainiert werden, statt manuell codierte Algorithmen zu verwenden) und Carsharing in eine völlig neue Epoche eintritt.
Grafik 3: Anlagebereiche im KI-Sektor
Da immer mehr Daten gespeichert und immer schneller analysiert werden müssen, eröffnen sich zahlreiche neue Anwendungsmöglichkeiten für die KI, von denen sowohl Softwarespezialisten wie Adobe, ServiceNow und Saleforce.com als auch Hersteller von Datencenter-Chips wie Broadcom, Cavium und Xilinx profitieren. Als zentralen KI-Enabler betrachten wir zudem Alphabet, ehemals Google, das künstliche Intelligenz bereits in all seine Services integriert hat.
Fazit
Ihr disruptives Potenzial für ein breites Branchenspektrum macht die künstliche Intelligenz zu einem hochinteressanten Anlagethema.Vor diesem Hintergrund erwarten wir attraktive und vielfältige Chancen für ein Investment in die langfristigen Nutznießer der künstlichen Intelligenz. Mit ihrer zunehmenden Reife und Verbreitung dürfte sich das Anlageuniversum weiter ausdehnen, wenn aus heutigen Wagniskapital-Investitionen die Börsengänge der Zukunft werden.
1Deep Learning: Bei diesem Konzept wird ein Computer mit großen Datenmengen gespeist, auf deren Grundlage er Entscheidungen über andere Daten treffen kann. Die hierbei genutzten neuronalen Netze sind logische Strukturen, die sämtliche durch sie hindurch fließenden Daten mit binären Wahr/Falsch-Fragen analysieren bzw. daraus einen nummerischen Wert extrahieren und sie, abhängig von der erhaltenen Antwort, einer bestimmten Kategorie zuordnen.
2Mooresche Gesetz: Das von Intel-Mitbegründer Gordon E. Moore 1965 postulierte Mooresche Gesetz besagt, dass sich die Zahl der Transistoren in einem Chip alle zwei Jahre verdoppelt.
3Anwendungsfall: Ein Begriff aus dem Software- und System-Engineering-Bereich, der beschreibt, wie Anwender ein System nutzen, um ein bestimmtes Ziel zu realisieren.