DeepSeek und der nächste KI-Boom? Wie maßgeschneiderte KI-Chips den Markt revolutionieren

Die Ankündigung von DeepSeek eines KI-Modells mit minimaler Rechenkapazität löste Ende Januar Marktunruhen aus. Trotz schneller Erholung etablierter Tech-Titel zeigt sich ein klarer Trend: Tech-Giganten setzen verstärkt auf maßgeschneiderte Chips, um die steigende Rechenlast zu bewältigen. Der Wettlauf um leistungsfähige XPUs gewinnt an Dynamik. Welche Unternehmen besonders spannend sind und wo Anleger Chancen finden, analysiert Yan Taw Boon, Managing Director – Head of Thematic Asia bei Neuberger Berman. Neuberger Berman | 12.02.2025 10:09 Uhr
Yan Taw Boon, Managing Director – Head of Thematic Asia bei Neuberger Berman / © e-fundresearch.com / Neuberger Berman
Yan Taw Boon, Managing Director – Head of Thematic Asia bei Neuberger Berman / © e-fundresearch.com / Neuberger Berman

DeepSeek löste Ende Januar mit seiner Ankündigung eines neuen KI-Modells, das nur ein Bruchteil der bisherigen Rechenkapazität benötigt, geradezu ein Beben an den Märkten aus. Auch wenn ein Großteil der etablierten Tech-Titel Ihre Verluste schnell wettmachen konnten, zeigt der Fall DeepSeek eine Trendwende: Tech-Giganten brauchen zunehmend maßgeschneiderte Chips, um die rasant wachsende Rechenlast in Rechenzentren und Cloud-Umgebungen zu bewältigen. Der Wettlauf um leistungsfähige XPUs nimmt Fahrt auf – ein spannendes Wachstumsfeld für die Halbleiterindustrie. Welche Player besonders interessant sind und wo sich Chancen für Anleger ergeben, beleuchtet Yan Taw Boon, Managing Director – Head of Thematic Asia bei Neuberger Berman in seinem Marktkommentar.

Der Wettlauf um die Entwicklung anwendungsspezifischer Microchhips verlagert sich zunehmend. Der Grund: Die Nachfrage nach dem Training groß angelegter KI-Modelle hin zur Bereitstellung präziserer Inferenzfähigkeiten, also der Fähigkeit eines KI-Modells, aus neuen Daten Schlussfolgerungen zu ziehen oder zu extrapolieren, verschärft sich weiter. Doch was bedeutet das? Stellen Sie sich Ihre morgendliche Kaffeeroutine vor: Jahrelang haben Sie sich auf den örtlichen Starbucks verlassen, ein zuverlässiger, unerschütterlicher Ort, aber ohne die persönliche Note. Dann taucht ein gemütlicher neuer Laden auf, in dem der Barista Ihren Namen kennt und genau weiß, wie Sie Ihr Koffein zu sich nehmen, und das alles zu einem niedrigeren Preis. So verhält es sich aktuell mit KI: Während sich die Nachfrage nach dem Training großer KI-Modelle hin zu präziseren Inferenzfähigkeiten dreht, verlagert sich auch der Bedarf von verallgemeinerten Grafikprozessoren (GPUs) hin zu anwendungsspezifischen integrierten Schaltkreisen (ASICs), die auch spezielleren Rechenanforderungen gerecht werden.

DeepSeek schockt Märkte

Ein aktuelles Beispiel: Nvidias KI-Grafikprozessoren sind dank ihrer immensen Rechenleistung und ihrer Fähigkeiten zur parallelen Verarbeitung seit langem der Standard für das Training großer KI-Sprachmodelle in zentralisierten Rechenzentren. Ende Januar kam nun das chinesische Start-up DeepSeek mit der Meldung, ein beeindruckendes KI-Modell entwickelt zu haben, dass nur einen Bruchteil der Rechenkapazität benötigt, als die etablierteren Modelle von Anbietern wie etwa OpenAI. Die Nachricht erschütterte die globalen Märkte. Gleichzeitig machte sie aber auch die starke Nachfrage nach kostengünstigeren KI-Entwicklungen und maßgeschneiderten Chips deutlich, die notwendig ist, um das weitere schnelle Wachstum von KI-Agenten anzutreiben – also Anwendungen wie virtuelle Assistenten, die unzählige Aufgaben erledigen, von der Annahme von Kundendienstanrufen bis hin zur Erstellung von Computercodes. Bereits am 30. Januar, hatten die Aktien der ASIC-Chiphersteller – darunter Broadcom und Marvell – den Großteil ihrer Verluste durch den plötzlichen Einbruch nach der DeepSeek-Ankündigung wieder aufgeholt.

Der Siegeszug agentenbasierten KI-Anwendungen in kleineren, lokalisierten Rechenzentren oder Edge-Rechenzentren, die noch näher am Endnutzer positioniert sind, wird die Nachfrage nach optimierter Inferenzfähigkeit weiter antreiben. Diese Nähe reduziert die Latenz und beschleunigt die Verarbeitungsgeschwindigkeit, wodurch Echtzeit-KI-Anwendungen verbessert und gleichzeitig Kosten gespart werden. Barclays schätzt, dass die AI-Inference bis 2026 mehr als 70 Prozent des allgemeinen KI-Rechenbedarfs ausmachen wird – etwa 4,5-mal mehr als der Schulungsbedarf.

Startschuss für ein neues ASIC-Ökosystem

Angepasste ASIC-Plattformen sind auf dem Vormarsch, da Cloud-Anbieter nach mehr Effizienz streben. Dazu einige Beispiele aus der jüngsten Vergangenheit: Amazon hat Trainium 2 in Zusammenarbeit mit Marvell eingeführt und damit Kosteneinsparungen von 30 bis 40 Prozent im Vergleich zu Nvidia-Grafikprozessoren erzielt. Zudem arbeiten Amazon arbeitet mit Marvell und Alchip an der nächsten Generation der Trainium 3-Plattform. Auch Google hat kürzlich im Rahmen seiner laufenden Zusammenarbeit mit Broadcom die sechste Generation der Tensor Processing Units (TPUs) vorgestellt und bei Meta arbeitet man mit Broadcom, Socionext und GUC zusammen, um verschiedene ASICs für den Meta Training and Inference Accelerator (MTIA) zu entwickeln. Microsoft arbeitet mit Marvell und GUC am Microsoft AI Accelerator (MAIA), um die KI-Fähigkeiten seiner Azure-Cloud-Plattform zu verbessern. Und US-Präsident Donald Trump schwärmte öffentlich von einem Joint Venture, bei dem mittels einer Partnerschaft zwischen OpenAI, Oracle und SoftBank bis zu 500 Milliarden US-Dollar in die KI-Infrastruktur investiert werden.

Experten gehen davon aus, dass diese Initiative der Startschuss für ein neues ASIC-Ökosystem einläuten könnte, immerhin arbeiten OpenAI mit ARM und Broadcom bereits an benutzerdefinierten Plattformen. In der Zwischenzeit wird der Wettlauf um den Aufbau leistungssteigernder Cluster aus einer Million maßgeschneiderter XPUs – bestehend aus CPUs, GPUs und ASICs in einem einzigen Netzwerk – immer härter. Erfolgreiche Cluster sind auf eine nahtlose Datenübertragung angewiesen, was Unternehmen mit starken Netzwerkfähigkeiten wie Broadcom und Marvell einen Wettbewerbsvorteil verschafft. Für versierte thematische Investoren mit langfristiger Perspektive dürften all diese Aktivitäten bieten weiterhin attraktive Optionen bieten.

Von Yan Taw Boon, Managing Director – Head of Thematic Asia bei Neuberger Berman

Performanceergebnisse der Vergangenheit lassen keine Rückschlüsse auf die zukünftige Entwicklung eines Investmentfonds oder Wertpapiers zu. Wert und Rendite einer Anlage in Fonds oder Wertpapieren können steigen oder fallen. Anleger können gegebenenfalls nur weniger als das investierte Kapital ausgezahlt bekommen. Auch Währungsschwankungen können das Investment beeinflussen. Beachten Sie die Vorschriften für Werbung und Angebot von Anteilen im InvFG 2011 §128 ff. Die Informationen auf www.e-fundresearch.com repräsentieren keine Empfehlungen für den Kauf, Verkauf oder das Halten von Wertpapieren, Fonds oder sonstigen Vermögensgegenständen. Die Informationen des Internetauftritts der e-fundresearch.com AG wurden sorgfältig erstellt. Dennoch kann es zu unbeabsichtigt fehlerhaften Darstellungen kommen. Eine Haftung oder Garantie für die Aktualität, Richtigkeit und Vollständigkeit der zur Verfügung gestellten Informationen kann daher nicht übernommen werden. Gleiches gilt auch für alle anderen Websites, auf die mittels Hyperlink verwiesen wird. Die e-fundresearch.com AG lehnt jegliche Haftung für unmittelbare, konkrete oder sonstige Schäden ab, die im Zusammenhang mit den angebotenen oder sonstigen verfügbaren Informationen entstehen. Das NewsCenter ist eine kostenpflichtige Sonderwerbeform der e-fundresearch.com AG für Asset Management Unternehmen. Copyright und ausschließliche inhaltliche Verantwortung liegt beim Asset Management Unternehmen als Nutzer der NewsCenter Sonderwerbeform. Alle NewsCenter Meldungen stellen Presseinformationen oder Marketingmitteilungen dar.

Melden Sie sich für den kostenlosen Newsletter an

Regelmäßige Updates über die wichtigsten Markt- und Branchenentwicklungen mit starkem Fokus auf die Fondsbranche der DACH-Region.

Der Newsletter ist selbstverständlich kostenlos und kann jederzeit abbestellt werden.